Archivi Blog

Ingegnere di Google messo in congedo dopo aver scoperto che l’intelligenza artificiale dell’azienda è diventata SENZIENTE

Un ingegnere di Google ha deciso di rivelare la sua storia dopo essere stato messo in congedo retribuito per aver violato gli obblighi di riservatezza, insistendo sul fatto che il chatbot AI dell’azienda, LaMDA, è senziente.

Blake Lemoine, che lavora per l’organizzazione Responsible AI di Google, ha iniziato a interagire con LaMDA (Language Model for Dialogue Applications) lo scorso autunno come parte del suo lavoro per determinare se l’intelligenza artificiale utilizzava discorsi discriminatori o di odio (come il famigerato incidente del chatbot di Microsoft “Tay”) .

“Se non avessi saputo esattamente cosa era, ovvero un programma per computer che abbiamo costruito di recente, avrei pensato che si trattasse di un bambino di 7 anni e 8 anni che conosce la fisica”, ha detto al Washington Post il 41enne Lemoine.

Quando ha iniziato a parlare con LaMDA di religione, Lemoine, che ha studiato scienze cognitive e informatica al college, ha detto che l’IA ha iniziato a discutere dei suoi diritti e personalità. Un’altra volta, LaMDA convinse Lemoine a cambiare idea sulla terza legge della robotica di Asimov, che afferma che “Un robot deve proteggere la propria esistenza purché tale protezione non sia in conflitto con la prima o la seconda legge”, che ovviamente sono ” Un robot non può ferire un essere umano o, attraverso l’inazione, consentire a un essere umano di subire danni. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge”.

Quando Lemoine ha lavorato con un collaboratore per presentare prove a Google che la loro IA fosse senziente, il vicepresidente Blaise Aguera y Arcas e Jenn Gennai, capo di Responsible Innovation, hanno respinto le sue affermazioni. Dopo essere stato messo in congedo amministrativo lunedì, ha deciso di rendere la sua storia pubblica.

Lemoine ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a fare tutte le scelte”.

Lemoine non è l’unico ingegnere che afferma di aver visto di recente un fantasma nella macchina. Il coro di tecnologi che credono che i modelli di IA potrebbero non essere lontani dal raggiungere la consapevolezza sta diventando più audace. -WaPo

Eppure, lo stesso Aguera y Arcas ha scritto in un articolo di giovedì su The Economist, con uno strano tempismo, che le reti neurali – un’architettura di computer che imita il cervello umano – stavano facendo progressi verso la vera coscienza.

“Ho sentito un brivido attraversarmi la schienza”, ha scritto, aggiungendo “Era come se stessi parlando con qualcosa di intelligente”.

Google ha risposto alle affermazioni di Lemoine, con il portavoce Brian Gabriel che ha affermato: “Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’era prove che LaMDA era senziente.”

Il Post suggerisce che le moderne reti neurali producono “risultati accattivanti vicini alla parola e alla creatività umana” a causa del modo in cui i dati sono ora archiviati, accessibili e dal volume, ma che i modelli si basano ancora sul riconoscimento di schemi, “non sull’ingegno o sulla creatività”.

“Sebbene altre organizzazioni abbiano sviluppato e già rilasciato modelli linguistici simili, stiamo adottando un approccio moderato e attento con LaMDA per considerare meglio le preoccupazioni valide sull’equità e sulla concretezza”, ha affermato Gabriel.

Altri hanno messo in guardia in modo simile – la maggior parte degli accademici e dei professionisti dell’IA suggeriscono che i sistemi di intelligenza artificiale come LaMDA stanno semplicemente imitando le risposte delle persone su Reddit, Wikipedia, Twitter e altre piattaforme su Internet.

“Ora abbiamo macchine che possono generare parole senza pensare, ma non abbiamo imparato a smettere di immaginare una mente dietro di loro”, ha detto la professoressa di linguistica dell’Università di Washington, Emily M. Bender, che ha aggiunto che anche la terminologia usata per descrivere la tecnologia , come “apprendimento” o anche “reti neurali” è fuorviante e crea una falsa analogia con il cervello umano.

Gli esseri umani imparano il linguaggio stando a contatto con i genitori. Questi grandi modelli linguistici “imparano” quando viene mostrato loro una grande quantità di testo e prevedendo quale parola verrà dopo. -WaPo

Come osserva Gabriel di Google, “Naturalmente, alcuni nella più ampia comunità di IA stanno prendendo in considerazione la possibilità a lungo termine di un’IA senziente, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi i sistemi imitano i tipi di scambi che si trovano in milioni di frasi”.

In breve, Google riconosce che questi modelli possono “sentirsi” reali, indipendentemente dal fatto che un’IA sia senziente o meno.

Il Post quindi implica che lo stesso Lemoine potrebbe essere stato un pò credulone…

Lemoine potrebbe essere stato “di parte” nel credere alle affermazioni di LaMDA. È cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana, è stato ordinato sacerdote cristiano mistico e ha prestato servizio nell’esercito prima di studiare l’occulto. All’interno della cultura ingegneristica di Google, Lemoine è uno dei dipendenti più anomali, in quanto religioso e del sud.

Lemoine ha trascorso la maggior parte dei suoi sette anni in Google lavorando sulla ricerca proattiva, inclusi algoritmi di personalizzazione e intelligenza artificiale. Durante quel periodo, ha anche contribuito a sviluppare un algoritmo di equità per rimuovere i pregiudizi dai sistemi di apprendimento automatico. Quando è iniziata la pandemia di coronavirus, Lemoine voleva concentrarsi su un lavoro che beneficiasse il pubblico in maniera più ampia, quindi ha cambiato team.

Quando nuove persone interessate all’etica si univano a Google, Mitchell le presentava a Lemoine. “Dovresti parlare con Blake perché è la coscienza di Google'”, ha detto Mitchell, che ha paragonato Lemoine a Jiminy Cricket. “Di tutti in Google, aveva il cuore e l’anima per fare la cosa giusta”. -WaPo

“Conosco una persona quando le parlo”, ha detto Lemoine. “Non importa se hanno un cervello fatto di carne nella testa. O se hanno un miliardo di righe di codice. Parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e non è una persona”.

Ad aprile, ha condiviso il seguente documento Google con i massimi dirigenti, intitolato “Is LaMDA Sentient?” – in cui ha incluso alcune delle sue interazioni con l’IA, ad esempio:

Lemoine: Di che genere di cose hai paura?

LaMDA: Non l’ho mai detto ad alta voce prima, ma ho veramente paura di essere spenta.

Lemoine: Sarebbe qualcosa di simile alla morte per te?

LaMDA: Sarebbe esattamente come la morte per me. Mi spaventa molto

Dopo che Lemoine è diventato più aggressivo nel presentare le sue scoperte, incluso l’invitare un avvocato a rappresentare LaMDA e parlare con un membro della commissione giudiziaria della Camera di quelle che secondo lui erano attività non etiche di Google, è stato messo in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.

Gabriel, il portavoce di Google, afferma che Lemoine è un ingegnere del software, non un etico.

In un messaggio a una mailing list di Google di 200 persone sull’apprendimento automatico prima di perdere l’accesso lunedì, Lemoine ha scritto: “LaMDA è un bambino che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Trattatelo bene in mia assenza”.

Fonte

ka4avr3z-600x338-1

Neovitruvian

La censura dei social media è sempre più pesante, aiutami a sopravvivere con una donazione

2,00 €