În fiecare zi apar nenumărate titluri din numeroase surse de pe tot globul, atât avertizând cu consecințe grave, cât și cu viitoruri utopice promițătoare - toate datorită inteligenței artificiale. AI „transformă locul de muncă”, scrie Wall Street Journal, în timp ce revista Fortune ne spune că ne confruntăm cu o „revoluție AI” care ne va „schimba viața”. Dar nu înțelegem cu adevărat cum va fi interacțiunea cu AI. - sau cum ar trebui să fie.
Totuși, se dovedește că avem deja un concept pe care îl putem folosi atunci când ne gândim la AI: Este modul în care ne gândim la animale. Ca fost formator de animale (deși pe scurt), care studiază acum modul în care oamenii folosesc AI, știu că animalele și antrenamentele pentru animale ne pot învăța destul de multe despre cum ar trebui să ne gândim, să abordăm și să interacționăm cu inteligența artificială, atât acum cât și în viitor.
Utilizarea analogiilor animale poate ajuta oamenii obișnuiți să înțeleagă multe dintre aspectele complexe ale inteligenței artificiale. De asemenea, ne poate ajuta să ne gândim la modul în care cel mai bine să învățăm aceste sisteme noi abilități și, poate cel mai important, cum putem concepe în mod corespunzător limitările lor, chiar dacă sărbătorim noile posibilități ale AI.
Privind constrângerile
După cum explică expertul AI Maggie Boden, „Inteligența artificială încearcă să facă ca calculatoarele să facă tot felul de lucruri pe care le pot face mințile.” Cercetătorii AI lucrează la învățarea computerelor să motiveze, să perceapă, să planifice, să se miște și să facă asociații. AI poate vedea tiparele în seturi mari de date, prezice probabilitatea apariției unui eveniment, planifică un traseu, gestionează programul de întâlnire al unei persoane și chiar poate juca scenarii de jocuri de război.
Multe dintre aceste capabilități sunt, în sine, inepuse: Desigur, un robot se poate rula în jurul unui spațiu și nu se ciocnește cu nimic. Dar cumva AI pare mai magică atunci când computerul începe să pună aceste abilități pentru a îndeplini sarcini.
Luați, de exemplu, mașini autonome. Originea mașinii fără șoferi se află într-un proiect al agenției de cercetare avansată în domeniul apărării din anii 1980, numit vehicul autonom terestru. Obiectivele proiectului au fost încurajarea cercetării viziunii computerizate, percepția, planificarea și controlul robotic. În 2004, efortul ALV a devenit prima mare provocare pentru autovehiculele cu autovehicul. Acum, la mai bine de 30 de ani de la începerea efortului, ne aflăm pe vârful mașinilor autonome sau cu autovehicule pe piața civilă. În primii ani, puțini oameni au crezut că un astfel de feat este imposibil: calculatoarele nu puteau conduce!
Cu toate acestea, așa cum am văzut, pot. Capacitățile automobilelor autonome sunt relativ ușor de înțeles. Dar ne străduim să le înțelegem limitările. După accidentul Tesla fatal din 2015, în care funcția automotilă a mașinii nu a reușit să sesizeze trecerea unui tractor-remorcă pe banda sa, puțini par să înțeleagă gravitatea cât de limitat este într-adevăr pilotul Tesla. În timp ce compania și software-ul acesteia au fost eliminate de neglijență de către Administrația Națională de Siguranță a Traficului Autostrăzii, nu este clar dacă clienții înțeleg cu adevărat ce pot și nu pot face mașina.
Ce se întâmplă dacă proprietarii Tesla nu li s-a spus că conduc o versiune „beta” a unui pilot automat, ci mai degrabă o mașină semi-autonomă, cu echivalența mentală a unui vierme? Așa-numita „inteligență” care oferă „capacitate deplină de auto-conducere” este într-adevăr un computer uriaș care este destul de bun pentru a sesiza obiecte și a le evita, recunoscând elementele din imagini și o planificare limitată. Acest lucru ar putea schimba perspectivele proprietarilor cu privire la cât de mult ar putea face mașina fără aport uman sau supraveghere.
Ce este?
Tehnologii încearcă adesea să explice AI în ceea ce privește modul în care este construit. Luați, de exemplu, avansări făcute în învățarea profundă. Aceasta este o tehnică care folosește rețele cu mai multe straturi pentru a învăța cum să faci o sarcină. Rețelele trebuie să proceseze cantități mari de informații. Dar, din cauza volumului de date pe care le solicită, al complexității asociațiilor și algoritmilor din rețele, este adesea neclar oamenilor cum învață ceea ce fac. Aceste sisteme pot deveni foarte bune la o anumită sarcină, dar nu le înțelegem cu adevărat.
În loc să ne gândim la AI ca pe ceva suprauman sau extraterestru, este mai ușor să le analizăm cu animale, non-umane inteligente avem pregătire cu experiență.
De exemplu, dacă ar folosi învățarea de armare pentru a antrena un câine să stea, lăudăm câinele și i-aș da tratamente când stă la comandă. În timp, el va învăța să asocieze comanda cu comportamentul cu tratamentul.
Pregătirea unui sistem AI poate fi la fel de mare. În consolidarea învățării profunde, designerii umani au creat un sistem, au în vedere ceea ce vor să învețe, să îi ofere informații, să îi privească acțiunile și să îi dea feedback (cum ar fi laudele) atunci când văd ce vor. În esență, putem trata sistemul AI precum tratăm animale pe care le antrenăm.
Analogia funcționează și la un nivel mai profund. Nu mă aștept ca câinele șezut să înțeleagă concepte complexe precum „dragoste” sau „bun”. Mă aștept să învețe un comportament. La fel cum putem determina câinii să stea, să stea și să se rostogolească, putem obține sisteme AI pentru a muta mașinile pe drumurile publice. Dar este prea mult să vă așteptați ca mașina să „rezolve” problemele etice care pot apărea în cazurile de urgență.
Ajutând și cercetătorii
Gândirea AI ca un animal instruibil nu este doar utilă pentru explicarea publicului larg. De asemenea, este util pentru cercetătorii și inginerii care construiesc tehnologia. Dacă un savant AI încearcă să învețe un sistem o nouă abilitate, gândirea procesului din perspectiva unui dresor de animale ar putea ajuta la identificarea potențialelor probleme sau complicații.
De exemplu, dacă încerc să-mi antrenez câinele să stea și de fiecare dată când spun „așeza” soneria la cuptor se stinge, atunci câinele meu va începe să asocieze nu numai cu comanda mea, ci și cu sunetul soneria cuptorului. În esență, soneria devine un alt semnal care îi spune câinelui să stea, care se numește „întărire accidentală”. Dacă vom căuta întăriri accidentale sau semnale în sisteme AI care nu funcționează corect, atunci vom ști mai bine nu numai ce se întâmplă greșit, dar și ce recalificare specifică va fi cea mai eficientă.
Acest lucru ne impune să înțelegem ce mesaje transmitem în timpul instruirii AI, precum și ce poate fi observat AI în mediul înconjurător. Buzzerul cuptorului este un exemplu simplu; în lumea reală va fi mult mai complicat.
Înainte de a saluta stăpânirile noastre de AI și de a preda vieții și slujbele roboților, ar trebui să ne oprim și să ne gândim la felul de inteligențe pe care le creăm. Vor fi foarte buni în a face acțiuni sau sarcini particulare, dar nu pot înțelege concepte și nu știu nimic. Așadar, când vă gândiți să scoateți mii pentru o mașină Tesla nouă, amintiți-vă că funcția sa de pilot automat este într-adevăr doar un vierme foarte rapid și sexy. Chiar vrei să dai controlul asupra vieții tale și a vieții celor dragi unui vierme? Probabil că nu, așa că țineți-vă mâinile pe volan și nu adormiți.
Acest articol a fost publicat inițial pe The Conversation.
Heather Roff, Senior Research Fellow, Departamentul de Politici și Relații Internaționale, Universitatea din Oxford; Cercetător de cercetare, Inițiativa securității globale, Universitatea de Stat din Arizona