https://frosthead.com

AI AI vreodată mai inteligent decât un copil de patru ani?

Toată lumea a auzit despre noile progrese în inteligența artificială și în special învățarea automată. Ați auzit, de asemenea, predicții utopice sau apocaliptice despre ce înseamnă acele progrese. Au fost duse să prezinte fie nemurirea, fie sfârșitul lumii și s-au scris multe despre ambele posibilități. Dar cele mai sofisticate AI sunt încă departe de a fi capabile să rezolve probleme pe care copiii umani de patru ani le îndeplinesc cu ușurință. În ciuda numelui impresionant, inteligența artificială constă în mare parte din tehnici de detectare a modelelor statistice în seturi mari de date. Învățarea umană este mult mai mult.

Cum putem cunoaște atât de multe despre lumea din jurul nostru? Învățăm o cantitate enormă chiar și atunci când suntem copii mici; copiii de patru ani știu deja despre plante, animale și mașini; dorințe, credințe și emoții; chiar dinozauri și nave spațiale.

Știința ne-a extins cunoștințele despre lume la inimaginabil de mare și la infinit de mic, până la marginea universului și la începutul timpului. Și folosim această cunoaștere pentru a face noi clasificări și predicții, pentru a ne imagina noi posibilități și pentru a face lucruri noi în lume. Dar tot ceea ce ajunge la oricare dintre noi din lume este un flux de fotoni care ne lovește retinele și tulburările de aer la timpanele noastre. Cum aflăm atât de multe despre lume când dovezile pe care le avem sunt atât de limitate? Și cum facem toate acestea cu cele câteva kilograme de goo gri care stă în spatele ochilor?

Cel mai bun răspuns de până acum este că creierele noastre efectuează calcule pe date concrete, particulare și dezordonate care ajung la simțurile noastre, iar aceste calcule dau reprezentări precise ale lumii. Reprezentările par structurate, abstracte și ierarhice; ele includ percepția obiectelor tridimensionale, gramaticile care stau la baza limbajului și capacități mentale precum „teoria minții”, care ne permite să înțelegem ce cred ceilalți. Aceste reprezentări ne permit să facem o gamă largă de noi predicții și să ne imaginăm multe posibilități noi într-un mod uman creativ creativ.

Acest tip de învățare nu este singurul tip de inteligență, dar este unul deosebit de important pentru ființele umane. Și este genul de inteligență care este o specialitate a copiilor mici. Deși copiii sunt dramatic rău la planificare și luarea deciziilor, ei sunt cei mai buni cursanți din univers. O mare parte din procesul de transformare a datelor în teorii se întâmplă înainte de a fi cinci.

Încă de la Aristotel și Platon, au existat două moduri de bază de abordare a problemei modului în care știm ceea ce știm și ele sunt în continuare principalele abordări în învățarea mașinii. Aristotel a abordat problema de jos în sus: Începeți cu simțurile - fluxul de fotoni și vibrații ale aerului (sau pixeli sau mostre sonore ale unei imagini sau înregistrări digitale) - și vedeți dacă puteți extrage tipare din ele. Această abordare a fost continuată de astfel de asociaționisti clasici precum filozofii David Hume și JS Mill și mai târziu de psihologii comportamentali, precum Pavlov și BF Skinner. Din acest punct de vedere, abstractitatea și structura ierarhică a reprezentărilor reprezintă o iluzie sau cel puțin un epifenomen. Toată lucrarea se poate face prin asociere și detectare de tipare - mai ales dacă există suficiente date.

Preview thumbnail for video 'Possible Minds: 25 Ways of Looking at AI

Posibile minți: 25 de moduri de a privi AI

Luminarul lumii științifice John Brockman reunește douăzeci și cinci dintre cele mai importante minți științifice, oameni care s-au gândit la inteligența artificială de teren pentru majoritatea carierei lor, pentru o masă rotundă inegalabilă despre minte, gândire, inteligență și ce înseamnă fii om.

A cumpara

De-a lungul timpului, a existat o întrerupere între această abordare de jos în sus a misterului învățării și alternativa alternativă, de sus în jos, a lui Platon. Poate că obținem cunoștințe abstracte din date concrete pentru că deja știm multe și mai ales pentru că avem deja o serie de concepte abstracte de bază, datorită evoluției. La fel ca oamenii de știință, putem folosi acele concepte pentru a formula ipoteze despre lume. Apoi, în loc să încercăm să extragem tiparele din datele brute, putem face predicții despre cum ar trebui să arate datele dacă aceste ipoteze sunt corecte. Alături de Platon, filozofi și psihologi „raționaliști” precum Descartes și Noam Chomsky au adoptat această abordare.

Iată un exemplu de zi cu zi care ilustrează diferența dintre cele două metode: soluționarea ciumei de spam. Datele constau dintr-o listă lungă, nesortată de mesaje din căsuța de e-mail. Realitatea este că unele dintre aceste mesaje sunt autentice și altele sunt spam. Cum puteți utiliza datele pentru a face discriminări între ele?

Luați în considerare mai întâi tehnica de jos în sus. Observați că mesajele spam tind să aibă caracteristici particulare: o listă lungă de destinatari, origini în Nigeria, referințe la premii de milioane de dolari sau Viagra. Problema este că mesajele perfect utile ar putea avea și aceste caracteristici. Dacă te-ai uitat la suficiente exemple de e-mailuri spam și non-spam, s-ar putea să vezi că nu doar că e-mail-urile spam au aceleași caracteristici, ci că funcțiile tind să meargă împreună în anumite moduri (Nigeria plus un milion de dolari vrăjește probleme). De fapt, ar putea exista unele corelații subtile la nivel superior, care discriminează mesajele spam de la cele utile - un model particular de scrieri greșite și adrese IP, spun. Dacă detectați acele tipare, puteți filtra spamul.

Tehnicile de învățare de jos în jos fac acest lucru. Elevul primește milioane de exemple, fiecare cu un set de funcții și fiecare etichetat ca spam (sau o altă categorie) sau nu. Computerul poate extrage modelul de caracteristici care le distinge pe cele două, chiar dacă este destul de subtil.

Ce zici de abordarea de sus în jos? Primesc un e-mail de la editorul Revistei de Biologie Clinică . Se referă la una din lucrările mele și spune că ar dori să publice un articol de către mine. Nu Nigeria, nici Viagra, nici un milion de dolari; e-mailul nu are nici una dintre caracteristicile de spam. Dar, folosind ceea ce știu deja și gândindu-mă într-un mod abstract la procesul care produce spam, îmi dau seama că acest e-mail este suspect:

1. Știu că spamerii încearcă să extragă bani de la oameni apelând la lăcomia umană.

2. Știu, de asemenea, că jurnalele legitime de „acces deschis” au început să-și acopere costurile prin taxarea autorilor în locul abonaților și că nu practic nimic precum biologia clinică.

Pune totul laolaltă și pot produce o ipoteză nouă și nouă de unde a venit acel e-mail. Este conceput pentru ca fraierii să plătească pentru „publicarea” unui articol într-un jurnal fals. E-mailul a fost rezultatul aceluiași proces dubios ca și celelalte e-mailuri spam, chiar dacă nu semăna cu nimic. Pot trage această concluzie dintr-un singur exemplu și pot continua să-mi testez ipoteza mai departe, dincolo de orice în e-mailul propriu-zis, mergând pe „editor”.

În termeni de calculator, am început cu un „model generativ” care include concepte abstracte precum lăcomia și înșelăciunea și descrie procesul care produce înșelătorii prin e-mail. Acest lucru îmi permite să recunosc spam-ul clasic de e-mail nigerian, dar, de asemenea, îmi permite să-mi imaginez multe tipuri diferite de spam-uri posibile. Când primesc e-mailul jurnalului, pot să retrag: „Acesta pare doar genul de e-mail care ar veni dintr-un proces generator de spam.”

Noua emoție despre AI vine din cauză că cercetătorii AI au produs recent versiuni puternice și eficiente ale ambelor metode de învățare. Dar nu există nimic profund nou despre metodele în sine.

Învățare profundă de jos

În anii '80, oamenii de știință ai calculatorului au conceput o modalitate ingenioasă de a determina calculatoarele să detecteze tiparele în date: conexionist sau rețea neurală, arhitectură (partea „neurală” a fost și este încă metaforică). Abordarea s-a încadrat în anii 90, dar a fost reînviată recent cu metode puternice de „învățare profundă”, cum ar fi DeepMind-ul Google.

De exemplu, puteți oferi unui program de învățare profundă o grămadă de imagini de pe Internet cu eticheta „pisică”, altele etichetate „casă” și așa mai departe. Programul poate detecta tiparele care diferențiază cele două seturi de imagini și poate utiliza aceste informații pentru a eticheta imagini noi corect. Unele tipuri de învățare automată, numite învățare nesupravegheată, pot detecta tiparele în date fără etichete; pur și simplu caută grupuri de caracteristici - ceea ce oamenii de știință numesc o analiză a factorilor. În mașinile de învățare profundă, aceste procese se repetă la diferite niveluri. Unele programe pot descoperi chiar și funcții relevante din datele brute ale pixelilor sau sunetelor; computerul ar putea începe prin a detecta tiparele din imaginea brută care corespund marginilor și liniilor și apoi a găsi modelele în acele tipare care corespund fețelor și așa mai departe.

O altă tehnică de jos în sus, cu o istorie lungă, este învățarea de consolidare. În anii ’50, BF Skinner, bazându-se pe opera lui John Watson, a recunoscut porumbeii programați pentru a efectua acțiuni elaborate - chiar ghidând rachetele lansate în aer către țintele lor (un ecou tulburător al AI-ului recent), oferindu-le un anumit program de recompense și pedepse. . Ideea esențială a fost aceea că acțiunile care au fost răsplătite vor fi repetate, iar cele pedepsite nu ar fi, până la obținerea comportamentului dorit. Chiar și în ziua lui Skinner, acest proces simplu, repetat de mai multe ori, ar putea duce la un comportament complex. Calculatoarele sunt concepute pentru a efectua operațiuni simple de mai multe ori pe o scară care arăta imaginația umană, iar sistemele de calcul pot învăța abilități remarcabil de complexe în acest fel.

De exemplu, cercetătorii de la Google DeepMind au folosit o combinație de învățare profundă și învățare de consolidare pentru a învăța un computer să joace jocuri video Atari. Calculatorul nu știa nimic despre cum funcționau jocurile. A început prin a acționa la întâmplare și a obținut informații doar despre cum arăta ecranul în fiecare moment și cât de bine a fost notat. Învățarea profundă a ajutat la interpretarea caracteristicilor de pe ecran, iar învățarea prin consolidare a răsplătit sistemul pentru scoruri mai mari. Calculatorul s-a descurcat foarte bine cu jocul mai multor jocuri, dar a bombardat complet și pe altele la fel de ușor pentru om să le stăpânească.

O combinație similară de învățare profundă și învățare de consolidare a permis succesul DeepZind AlphaZero, un program care a reușit să bată jucătorii umani atât la șah cât și la Go, echipat cu doar o cunoaștere de bază a regulilor jocului și a unor capacități de planificare. AlphaZero are o altă caracteristică interesantă: funcționează jucând sute de milioane de jocuri împotriva sa. Pe măsură ce face acest lucru, acesta prune greșeli care au dus la pierderi și se repetă și se dezvoltă pe strategii care au dus la câștiguri. Astfel de sisteme, precum și altele care implică tehnici numite rețele contradictorii generative, generează date, precum și observarea datelor.

Când aveți puterea de calcul pentru a aplica aceste tehnici pe seturi de date foarte mari sau milioane de mesaje de e-mail, imagini Instagram sau înregistrări vocale, puteți rezolva probleme care păreau foarte dificile înainte. Aceasta este sursa multor entuziasm în informatică. Dar merită să ne amintim că acele probleme - cum ar fi recunoașterea faptului că o imagine este o pisică sau un cuvânt rostit este Siri - sunt banale pentru un copil mic. Una dintre cele mai interesante descoperiri ale informaticii este că problemele care ne sunt ușoare (cum ar fi identificarea pisicilor) sunt dificile pentru calculatoare - mult mai greu decât să joci șah sau Go. Calculatoarele au nevoie de milioane de exemple pentru a clasifica obiectele pe care le putem clasifica doar cu câteva. Aceste sisteme de jos în jos se pot generaliza la noi exemple; ei pot eticheta o nouă imagine ca o pisică destul de precis peste toate. Dar o fac în moduri cu totul diferite de modul în care oamenii generalizează. Unele imagini aproape identice cu o imagine de pisică nu vor fi deloc identificate ca pisici. Alții care arată ca o neclaritate aleatoare vor fi.

Modele Bayesiene de sus în jos

Abordarea de sus în jos a jucat un rol important în IA timpurie, iar în anii 2000, de asemenea, a cunoscut o renaștere, sub forma modelelor generative probabilistice sau Bayesiene.

Încercările timpurii de a utiliza această abordare s-au confruntat cu două tipuri de probleme. În primul rând, cele mai multe modele de dovezi ar putea fi, în principiu, explicate prin multe ipoteze diferite: este posibil ca mesajul meu de e-mail al jurnalului să fie autentic, dar nu pare probabil. În al doilea rând, de unde provin conceptele pe care le folosesc modelele generative în primul rând? Platon și Chomsky au spus că te-ai născut cu ei. Dar cum putem explica cum învățăm cele mai noi concepte ale științei? Sau cum înțeleg chiar copiii mici despre dinozauri și nave de rachetă?

Modelele bayesiene combină modelele generative și testarea ipotezelor cu teoria probabilităților și abordează aceste două probleme. Un model Bayesian vă permite să calculați cât de probabil este că o anumită ipoteză este adevărată, având în vedere datele. Și făcând modificări mici, dar sistematice la modelele pe care le avem deja și testându-le pe baza datelor, putem face uneori concepte și modele noi din cele vechi. Dar aceste avantaje sunt compensate de alte probleme. Tehnicile bayesiene vă pot ajuta să alegeți care dintre cele două ipoteze este mai probabil, dar există aproape întotdeauna un număr enorm de ipoteze posibile și niciun sistem nu le poate lua în considerare eficient pe toate. Cum decideți ce ipoteze merită testate în primul rând?

Lacul Brenden de la NYU și colegii lor au folosit aceste tipuri de metode de sus în jos pentru a rezolva o altă problemă care este ușoară pentru oameni, dar extrem de dificilă pentru computere: recunoașterea caracterelor scrise de mână necunoscute. Uită-te la un personaj de pe un sul japonez. Chiar dacă nu l-ați văzut niciodată, puteți spune probabil dacă este similar sau diferit de un personaj de pe un alt sul japonez. Puteți să-l desenați și chiar să proiectați un personaj fals japonez bazat pe cel pe care îl vedeți - unul care va arăta cu totul diferit de un personaj coreean sau rus.

Metoda de jos în sus pentru recunoașterea caracterelor scrise de mână este de a oferi computerului mii de exemple ale fiecăruia și de a lăsa să scoată caracteristicile principale. În schimb, Lake et al. a oferit programului un model general al modului în care atrageți un personaj: O lovitură merge fie la dreapta, fie la stânga; după ce termini unul, începi altul; si asa mai departe. Când programul a văzut un anumit personaj, ar putea deduce secvența de accidente vasculare cerebrale care s-ar fi dus cel mai probabil la el - la fel cum am dedus că procesul de spam a dus la e-mailul meu îndoielnic. Atunci s-ar putea judeca dacă un personaj nou ar putea rezulta din acea secvență sau dintr-un altul și ar putea produce el însuși un set similar de lovituri. Programul a funcționat mult mai bine decât un program de învățare profundă aplicat exact acelorași date și a reflectat îndeaproape performanțele ființelor umane.

Aceste două abordări ale învățării automate au puncte forte și puncte slabe complementare. În abordarea de jos în sus, programul nu are nevoie de multe cunoștințe pentru a începe, dar are nevoie de o mulțime de date și poate generaliza doar într-un mod limitat. În abordarea de sus în jos, programul poate învăța din doar câteva exemple și poate face generalizări mult mai ample și mai variate, dar trebuie să vă bazați mai mult în el. O serie de anchetatori încearcă în prezent să combine cele două abordări, folosind învățarea profundă pentru a implementa inferența bayesiană.

Succesul recent al AI este parțial rezultatul extinderilor acelor idei vechi. Dar are mai mult de-a face cu faptul că, datorită internetului, avem mult mai multe date și, datorită Legii lui Moore, avem mult mai multă putere de calcul pentru a aplica acestor date. Mai mult, un fapt neapreciat este că datele pe care le avem au fost deja sortate și prelucrate de ființe umane. Imaginile cu pisici postate pe Web sunt imagini canine de pisici - imagini pe care oamenii le-au ales deja ca imagini „bune”. Google Translate funcționează deoarece profită de milioane de traduceri umane și le generalizează într-un text nou, în loc să înțeleagă cu adevărat propozițiile.

Dar lucrul cu adevărat remarcabil al copiilor umani este faptul că aceștia combină cumva cele mai bune caracteristici ale fiecărei abordări și apoi trec mult dincolo de ei. În ultimii cincisprezece ani, dezvoltatorii au explorat modul în care copiii învață structura din date. Copiii de patru ani pot învăța luând doar unul sau două exemple de date, așa cum face un sistem de sus în jos și generalizând la concepte foarte diferite. Dar, de asemenea, pot învăța noi concepte și modele din datele în sine, așa cum face un sistem de jos în sus.

De exemplu, în laboratorul nostru le oferim copiilor mici un „detector de blicket” - o mașină nouă pentru a-și da seama, una pe care nu au mai văzut-o niciodată. Este o cutie care se aprinde și redă muzică atunci când pui anumite obiecte, dar nu altele. Le oferim copiilor doar unul sau două exemple despre modul în care funcționează mașina, arătându-le că, să zicem, două blocuri roșii o duc, în timp ce o combinație verde-galben nu. Chiar și tinerii de optsprezece luni își dau seama imediat de principiul general potrivit căruia cele două obiecte trebuie să fie aceleași pentru a face să meargă și ele generalizează acest principiu la noi exemple: De exemplu, vor alege două obiecte care au aceeași formă pe care să le facă. munca mașinii. În alte experimente, am arătat că copiii pot chiar să-și dea seama că unele proprietăți invizibile ascunse fac ca mașina să meargă sau că mașina funcționează pe un principiu logic logic.

Puteți arăta acest lucru și în învățarea de zi cu zi a copiilor. Copiii mici învață rapid teoriile intuitive abstracte despre biologie, fizică și psihologie în mare măsură în care fac oamenii de știință adulți, chiar și cu date relativ puține.

Realizările remarcabile ale învățării automate a sistemelor IA recente, de jos în sus și de sus în jos, au loc într-un spațiu restrâns și bine definit de ipoteze și concepte - un set precis de piese și mișcări de joc, un set de imagini predeterminat. . În schimb, copiii și oamenii de știință își schimbă uneori conceptele în moduri radicale, efectuând schimbări de paradigmă, mai degrabă decât să modifice conceptele pe care le au deja.

Copiii de patru ani pot recunoaște imediat pisicile și pot înțelege cuvintele, dar pot crea, de asemenea, inferențe noi și surprinzătoare, care depășesc cu mult experiența lor. Proprio nepotul meu a explicat recent, de exemplu, că dacă un adult dorește să devină din nou copil, ar trebui să încerce să nu mănânce legume sănătoase, deoarece legumele sănătoase fac ca un copil să crească la un adult. Acest tip de ipoteză, una plauzibilă pe care niciun adult nu i-ar distra vreodată, este caracteristică copiilor mici. De fapt, colegii mei și cu mine am arătat sistematic că preșcolarii sunt mai buni să vină cu ipoteze improbabile decât copiii mai mari și adulții. Nu avem aproape nici o idee despre cum este posibil acest tip de învățare creativă și inovație.

Dacă te uiți la ceea ce fac copiii, poate oferi programatorilor indicii utile despre indicațiile de învățare pe calculator. Două caracteristici ale învățării copiilor sunt deosebit de atrăgătoare. Copiii sunt studenți activi; ele nu doar trec în mod pasiv date cum ar face AIs. La fel cum oamenii de știință experimentează, copiii sunt motivați intrinsec să extragă informații din lumea din jurul lor prin jocul și explorarea lor interminabilă. Studii recente arată că această explorare este mai sistematică decât pare și este bine adaptată pentru a găsi dovezi persuasive care să susțină formarea ipotezelor și alegerea teoriei. Construirea curiozității în mașini și a le permite să interacționeze activ cu lumea ar putea fi o cale către o învățare mai realistă și mai largă.

În al doilea rând, copiii, spre deosebire de IS-urile existente, sunt studenți sociali și culturali. Oamenii nu învață izolat, ci se folosesc de înțelepciunea acumulată a generațiilor trecute. Studii recente arată că chiar și preșcolarii învață prin imitație și ascultând mărturia altora. Dar nu se supun pasiv pur și simplu profesorilor lor. În schimb, preiau informații de la alții într-un mod remarcabil de subtil și sensibil, făcând inferențe complexe despre locul în care vin informațiile și cât de de încredere sunt și integrează sistematic propriile experiențe cu ceea ce aud.

„Inteligența artificială” și „învățarea automată” sună înfricoșătoare. Și în unele feluri sunt. Aceste sisteme sunt folosite pentru a controla armele, de exemplu, și ar trebui să ne speriem cu adevărat. Totuși, prostia naturală poate provoca mult mai mult ravagii decât inteligența artificială; noi, oamenii, va trebui să fim mult mai deștepți decât am fost în trecut pentru a reglementa corect noile tehnologii. Dar nu există o bază prea mare pentru viziunea apocaliptică sau utopică a IS-urilor care înlocuiesc oamenii. Până nu rezolvăm paradoxul de bază al învățării, cele mai bune inteligențe artificiale nu vor putea concura cu omul mediu de patru ani.

Din colecția viitoare POSSIBLE MINDS: 25 Ways of Looking at AI, editat de John Brockman. Publicat prin acord cu Penguin Press, membru al Penguin Random House LLC. Copyright © 2019 John Brockman.

AI AI vreodată mai inteligent decât un copil de patru ani?