După cum notează publicaţia, din toamna anului trecut, dezvoltatorul a testat modelul de limbaj al reţelei neuronale LaMDA. Sarcina lui a fost să monitorizeze dacă chatbot-ul foloseşte discurs discriminatoriu sau instigator la ură. Cu toate acestea, în cursul acestei sarcini, Lemoyne a devenit din ce în ce mai convins că IA cu care avea de-a face avea propria sa conştiinţă şi se percepea pe sine ca o persoană. „Dacă nu ştiam sigur că am de-a face cu un program de calculator pe care l-am scris recent, atunci aş fi crezut că vorbesc cu un copil de şapte sau opt ani, care din anumite motive s-a dovedit a fi un expert în fizică”, a spus programatorul într-o ediţie de interviu. „Pot recunoaşte o fiinţă inteligentă când vorbesc cu el. Şi nu contează dacă are un creier în cap sau miliarde de linii de cod. Eu vorbesc cu el şi ascult ce îmi spune.
Potrivit ziarului, Lemoyne a ajuns personal la concluzia că IA cu care avea de-a face era inteligentă şi apoi şi-a propus să demonstreze acest lucru experimental pentru a prezenta datele conducerii. Drept urmare, dezvoltatorul a pregătit un raport scris. Superiorii au considerat însă că argumentul angajatului nu este foarte convingător. „Echipa noastră, inclusiv eticieni şi experţi tehnici, a analizat preocupările lui Blake conform principiilor pe care le aplicăm IA şi l-am informat că dovezile disponibile nu susţin ipoteza lui. I s-a spus că dovezile nu există dovezi că LaMDA este conştient, şi există o mulţime de dovezi care arată contrariul”, a declarat purtătorul de cuvânt al Google, Brian Gabriel, într-o declaraţie.
Suspendare de la serviciu
În acelaşi timp, Google l-a suspectat pe Lemoyne de încălcarea politicii de confidenţialitate a companiei. S-a dovedit că, în timpul experimentelor sale cu AI, s-a consultat cu experţi terţi. El a contactat, de asemenea, reprezentanţi ai Comitetului Judiciar al Camerei Reprezentanţilor din SUA pentru a-i informa cu privire la ceea ce credea că sunt încălcări etice din partea Google. În plus, în încercarea de a demonstra superiorilor săi că are dreptate, Lemoyne a apelat la un avocat care trebuia să reprezinte interesele LaMDA ca o fiinţă rezonabilă. Drept urmare, Lemoyne a fost suspendat de la serviciu şi plasat în concediu plătit. După aceea, a decis să vorbească public şi a acordat un interviu pentru The Washington Post.
Potrivit conducerii, Lemoyne a cedat propriei iluzii datorită faptului că reţeaua neuronală creată de companie poate de fapt să dea impresia unei fiinţe inteligente atunci când comunică cu ea. Cu toate acestea, acest lucru se explică, potrivit Google, doar printr-o gamă uriaşă de date încărcate în el. „Desigur, în comunitatea generală de IA, există o discuţie pe termen lung despre posibilitatea de a crea IA sau „IA puternică”, dar nu are sens să umanizăm modelele actuale de limbaj non-conştient”, a declarat purtătorul de cuvânt al companiei. El a subliniat, de asemenea, că Lemoyne este un inginer software de profesie şi nu un etician IA.