venerdì, Dicembre 27, 2024

Il gruppo sostituisce la hotline con un chatbot e il chatbot viene ritirato a causa di cattivi consigli

| Data:

È una mossa che potrebbe piacere a chiunque sia preoccupato per i potenziali effetti di uccisione del lavoro degli strumenti di intelligenza artificiale. Piace BBC Secondo i rapporti, l’American National Eating Disorders Association (NEDA) ha dovuto rimuovere il suo chatbot “Tessa” dopo aver iniziato a raccomandare strategie dietetiche potenzialmente dannose per le persone con disturbi alimentari. Ciò è accaduto solo una settimana dopo che NEDA ha scelto di utilizzare un robot invece di una linea di assistenza dal vivo gestita dall’uomo. Il problema con Tessa è stato annunciato dal gruppo Instagram posta, per fortuna. “È giunto alla nostra attenzione… che l’attuale versione di Tessa Chatbot… potrebbe aver fornito informazioni dannose”, si legge nel post. “Stiamo indagando immediatamente su questo e abbiamo sospeso quel programma fino a nuovo avviso per un’indagine completa”.

Piace National Public Radio, Radio Pubblica mercoledì riportato, NEDA si è rivolta all’intelligenza artificiale dopo aver gestito una linea di assistenza dal vivo per le persone con anoressia, bulimia e altri disturbi alimentari per più di due decenni. Secondo quanto riferito, l’organizzazione no profit ha informato i dipendenti della linea di assistenza meno di una settimana dopo aver formato un sindacato. NEDA ha affermato che il cambiamento non ha nulla a che fare con la sindacalizzazione dei dipendenti dal vivo e tutto ha a che fare con un aumento delle chiamate e dei messaggi alla hotline durante la pandemia di COVID-19. Questo aumento del volume delle chiamate, secondo la leadership di NEDA, significa maggiore responsabilità, e quindi “l’obiettivo dell’uso esteso della tecnologia assistita dall’intelligenza artificiale”.

Per quanto riguarda il cattivo comportamento di Tessa, Cnn L’amministratore delegato di NEDA, Liz Thompson, ha accusato i “cattivi attori” che hanno cercato intenzionalmente di convincere il chatbot a fornire consigli dannosi o addirittura irrilevanti agli utenti. Prima di annunciare problemi con i bot, gli ex dipendenti della linea di assistenza cinguettio Una dichiarazione in cui si afferma che i chatbot non possono “sostituire l’empatia umana e crediamo che questa decisione causerà danni irreparabili alla comunità dei disturbi alimentari”. (Leggi altre storie di intelligenza artificiale.)

READ  Marc Benioff di Salesforce accenna a ulteriori potenziali licenziamenti

Popolare

Altri simili