Pentru toată frecvența lor uimitoare, filmările școlare rămân o groază confuză.
Nu numai că există prea puțin consens asupra modului de oprire a acestora - cu sugestii care variază de la restricționarea accesului armelor la profesorii de armare - dar există și mai puține certitudini despre motivul pentru care un student ar deschide focul colegilor de clasă.
Acum, unii oameni de știință încep să exploreze dacă inteligența artificială (AI) ar putea ajuta la găsirea răspunsurilor. Ideea este că algoritmii ar putea fi în măsură să analizeze mai bine datele referitoare la fotografiile școlare și poate chiar să identifice tiparele în limbajul sau comportamentul elevilor care ar putea prevesti violența școlară. Cercetarea este încă în stadii incipiente, iar perspectiva folosirii utilajelor pentru a prezice cine ar putea deveni un școlar care ridică probleme de confidențialitate și alte întrebări etice asociate cu orice fel de profilare, mai ales că procesul ar implica copii. Totuși, obiectivul este de a vedea dacă puterea analitică a mașinilor inteligente poate oferi mai multă claritate tragediilor prea des consumate într-un vârtej de emoții înalte și retorică politică.
Revenind la tehnologie
Folosirea inteligenței artificiale ca o modalitate de a aduce analiza științifică la ceva la fel de insondabil ca filmările școlare a apelat foarte mult la Shreya Nallapati. Doar a absolvit liceul din Colorado, dar în februarie, după moartea prin împușcare a 17 studenți din Parkland, Florida, a fost inspirată de liderul studențesc Emma Gonzalez pentru a lua măsuri.
„Am simțit că nu ar trebui să ne publicăm doar gândurile și condoleanțele”, spune Nallapati. „M-am gândit că, ca o generație în creștere de milenii, ar trebui să încercăm să folosim ceea ce știm cel mai bine - tehnologia.”
Așadar, Nallapati, care studiază inteligența artificială în liceu, a adresat altor femei tinere pe care le cunoaște printr-un program numit Aspirații în calcul, derulat de Centrul Național pentru Femei și Tehnologia Informației. Aspirațiile în informatică încurajează femeile tinere să intre în domeniile tehnicii și al tehnologiei.
Nallapati a rugat pe alții din grup să se alăture ei într-un nou proiect, #NeverAgainTech. Ea speră că efortul de colaborare va avea ca rezultat o compilare și o analiză bazată pe AI pentru o gamă largă de date referitoare la tirurile școlare - de la informații demografice și socio-economice despre tirurile trecute, la orice istoric de consum de droguri sau tulburări neurologice, la disponibilitatea armelor în statele în care au avut loc atacuri. Obiectivul este de a dezvolta o defalcare mai cuprinzătoare a numeroaselor componente ale filmărilor școlare decât orice există în prezent și de a pune la dispoziția publicului software, rezultat, în special școlile și agențiile de aplicare a legii, anul viitor.
Evaluarea riscului
O echipă de cercetători de la Centrul Medical al Spitalului pentru Copii din Cincinnati adoptă o abordare diferită în utilizarea AI pentru a aborda violența școlară. A publicat un studiu recent care sugerează învățarea automată care ar putea ajuta terapeuții și consilierii în a discerne nivelul de risc pe care îl poate prezenta un student.
Mai exact, oamenii de știință au descoperit că AI era la fel de exactă ca o echipă de psihiatri pentru copii și adolescenți când a fost vorba de evaluarea riscului de comportament violent, bazat pe interviuri cu 119 copii cu vârste cuprinse între 12 și 18 ani. agresiune, cercetătorul principal Drew Barzman spune că a fost aplicabil și evaluării riscului de împușcare a școlii.
„De obicei, există semne de avertizare înainte de a exista violență școlară”, spune el. În special, limbajul pe care elevul îl folosește în timpul unui interviu poate ajuta la distingerea unui adolescent cu risc ridicat de unul cu risc scăzut, potrivit cercetărilor anterioare, regizate de Barzman. Studiul a concluzionat că primul a avut mai multe șanse să exprime sentimente negative despre sine și despre actele altora. De asemenea, a fost mai probabil să vorbească despre acte violente care implică el însuși și jocuri video sau filme violente.
Echipa a făcut un alt pas, având un algoritm AI folosind rezultatele studiului anterior pentru a analiza transcrierile studenților intervievați pentru noua cercetare. Pe baza tiparelor de limbaj, a indicat dacă o persoană avea un risc ridicat sau mic de a comite violență. Peste 91 la sută din timp, algoritmul, folosind doar transcrieri, s-a aliniat evaluărilor mai ample ale unei echipe de psihiatri pentru copii și adolescenți, care au avut acces și la informații de la părinți și școli.
Studenții au fost recrutați în mare parte din ambulatoriile de psihiatrie, unitățile de internare și secțiile de urgență. Unii au prezentat recent schimbări majore de comportament, dar pentru alții, schimbările au fost mai mici. Barzman spune că au participat la o gamă variată de școli, deși niciuna nu a fost pregătită acasă.
Potrivit lui Barzman, studiul s-a concentrat pe prezicerea agresiunii fizice la școală, dar încă nu se știe dacă învățarea automată ar putea preveni violența. Concentrația în acest moment este de a oferi terapeuților și consilierilor un instrument care le-ar putea accentua evaluările asupra studenților pe baza interviurilor. Intenția, notează Barzman, este să nu fie ca mașinile să ia decizii cu privire la studenți.
„Practic ar fi menit să ajute clinicianul în luarea deciziilor sale”, spune Barzman. „Le-am oferi o structură a ceea ce am descoperit a fi întrebări importante. Poate fi dificil să intervievăm un student, să alegem informațiile potrivite și să ne amintim totul. Ideea este să le oferim un instrument care să îi poată ajuta prin procesul și creșterea exactității evaluărilor lor. "
Matty Squarzoni este un alt credincios în potențialul inteligenței artificiale în abordarea violenței școlare. El este CEO al unei startup-uri din California, numită Sitch AI, care intenționează să pună pe piață tehnologia despre care spune că ar putea ajuta școlile să facă față acestor amenințări. Punctul inițial se va concentra pe dezvoltarea unui sistem de senzori care va permite polițiștilor să detecteze locația precisă a împușcăturilor și, de asemenea, să urmărească mișcările unui împușcat printr-o școală. Cu toate acestea, Squarzoni spune că compania se uită și la modalități de a folosi analiza predictivă pentru a detecta potențialele probleme înainte de a deveni violente.
El consideră că inteligența artificială ar putea analiza datele unui student și ar putea semnala schimbările notabile ale performanței sau comportamentului său. Squarzoni recunoaște potențialele preocupări legate de confidențialitate, dar spune că compania nu ar cunoaște identitățile studenților.
„Nu vorbim despre crearea de profiluri”, spune el. „Am privi fiecare persoană ca o entitate unică. Dar oamenii sunt creaturi de obișnuință. Când încep să aibă nereguli, atunci când începi să le privești. Poziți steaguri și poate ca steagurile să înceapă să fie din ce în ce mai aproape. Ele ar putea fi probleme de sănătate mintală sau poate scade notele lor.
„Nu căutăm să putem spune:„ Această persoană va fi un împușcat ”. Vrem să putem spune: „Această persoană are nevoie de ajutor”.
Nu asa de repede?
Dar alții au îngrijorări serioase cu privire la graba folosirii algoritmilor software pentru a aborda probleme sociale complexe.
„Acum vedem o tendință a aplicării AI pe domenii foarte sensibile cu viteze alarmante, iar persoanele care realizează acești algoritmi nu înțeleg neapărat toate aspectele sociale și chiar politice ale datelor pe care le folosesc”, spune Rashida Richardson, director de cercetare politică la AI Now Institute, un program de la New York University care studiază implicațiile sociale ale inteligenței artificiale.
O zonă în care utilizarea AI a luat foc este ceea ce este cunoscut sub numele de poliție predictivă. Acestea sunt produse software care analizează statisticile infracțiunilor și apoi prezic în cazul în care infracțiunile sunt mai susceptibile de a fi comise. Criticii subliniază însă că date precum arestările pot fi rezultatul prejudecății umane, care în cele din urmă pot fi incluse în algoritm.
Acesta este întotdeauna un risc de analiză predictivă și de ce sursa de date este un factor cheie în determinarea cât de obiectiv poate fi de fapt. Cu instrumentul AI dezvoltat de cercetătorii de la Spitalul de Copii din Cincinnati, cu toate acestea, analiza se bazează pe ceea ce spun studenții individuali în timpul unui interviu, mai degrabă decât pe o compilare largă de statistici.
Totuși, Richardson consideră că este important ca echipele care creează acest tip de software să fie „interdisciplinare”, astfel încât educatorii, de exemplu, să fie implicați în programe care evaluează comportamentul elevilor.
„Cercetătorii ar putea să nu înțeleagă o mulțime de nuanțe a ceea ce oamenii din politica educațională și juridică numesc climatul școlar. Aceasta include probleme de siguranță și comportamentale ”, spune ea. „Genul de școală în care vă aflați va dicta adesea modul în care este tratat comportamentul și modul în care este abordată disciplina.
„De exemplu, s-a descoperit că școlile charter au politici disciplinare mult mai stricte”, adaugă Richardson. „Copiii din acel mediu vor fi tratați în mod diferit decât într-o școală privată de înaltă calitate și chiar în diferite școli publice.
„Încercarea de a înțelege problemele foarte complicate care au o mulțime de contribuții și aplicarea unei soluții tehnologice care reflectă o problemă este o problemă, deoarece poate reitera aceleași probleme pe care le vedem în societate sau poate crea o soluție pentru o problemă care nu există. “
Richardson spune că o altă preocupare este aceea că, chiar dacă un program AI este dezvoltat cu cele mai bune intenții, acesta poate ajunge să fie utilizat în moduri neprevăzute de creatorii săi.
„După ce ai venit cu aceste instrumente, ” spune ea, „nu este ca și cum ai continua să deții controlul asupra modului în care sunt implementate sau asupra modului în care acestea vor continua să afecteze societatea în general.”