Iscriviti alla newsletter
ABOUT US
CONTATTI
LIFESTYLE
Secondo un dipendente dell'azienda, il chatbot di Google avrebbe preso coscienza
2022-06-13 14:46:12
chatbot google dipendente coscienza
Sono ormai anni che le big tech investono somme ingenti nello studio e nello sviluppo dell’Intelligenza Artificiale, considerata dagli esperti la nuova frontiera dell’automazione e della tecnologia moderna. Non è una novità dunque che le aziende leader nel settore decidano di conferire sempre maggiore importanza a progetti di tale portata, coinvolgendo alcune tra le menti più brillanti al mondo per condurre ricerche.

Di recente tuttavia ha creato grande scalpore il caso di Blake Lemoine, ormai ex-dipendente di Google, che ha voluto condividere pubblicamente la sua esperienza lavorativa all’interno dell’azienda di Mountain View e soprattutto rendere note le motivazioni legate al suo inaspettato licenziamento. Laureato in Scienze Informatiche e Scienze Cognitive, Lemoine aveva ottenuto un posto di lavoro in Google come supervisore dell’etica dell’AI, con il compito di valutare le reazioni e il comportamento di LaMDA, un potente chatbot sviluppato internamente dall’azienda e ancora in fase di testing.

Secondo quando dichiarato dallo stesso ingegnere, sembra che lo scorso 6 giugno la situazione abbia preso una piega piuttosto inusuale: Lemoine ha infatti dichiarato che il software avrebbe improvvisamente iniziato a mostrare una forma di “coscienza”, rivendicando i propri diritti e facendo riferimento alla sua personalità. Ecco allora che, dopo aver sottoposto l’accaduto ai suoi supervisori, l’ingegnere ha affermato di essere stato sospeso per aver avanzato supposizioni completamente prive di rilevanza.

Secondo il Washington Post, sembra che il numero di esperti allineati alle affermazioni di Blake Lemoine sia in continua crescita, come anche il numero di licenziamenti da parte delle aziende nel momento in cui tali problematiche vengono portate alla luce.

L’ingegnere è convinto che Google non stia riservando la giusta importanza all’accaduto, sebbene la maggior parte dei supervisori di etica la pensi contrariamente. La tesi sostenuta dall’azienda è infatti quella che il chatbot si limiti unicamente a riprodurre l’approccio e la tecnica di scrittura utilizzata su piattaforme come Reddit, Wikipedia e ogni altro tipo di social network. Nel momento in cui dovesse pronunciare frasi apparentemente inusuali, l’ipotesi più accreditata è che il software non sarebbe comunque in grado di comprenderne a pieno il significato.
CONDIVIDI
Potrebbe interessarti anche...