Căutarea AI este un foc de gunoi și Google reține potrivirile

Lumea cercetării AI este în ruină. De la cadrele universitare care acordă prioritate programelor ușor de monetizat în detrimentul inovației, până la elita din Silicon Valley care folosește amenințarea cu pierderea locurilor de muncă pentru a încuraja presupunerile favorabile afacerilor, sistemul este o mizerie ruptă.

Și Google merită partea leului din vină.

cum a început

Au existat aproximativ 85.000 de lucrări de cercetare publicate în întreaga lume pe tema AI/ML în anul 2000. Avanză rapid până în 2021 și au fost aproape de două ori mai multe publicate numai în Statele Unite.

A spune că a avut loc o explozie pe teren ar fi o subestimare enormă. Acest aflux de cercetători și idei noi a făcut ca învățarea profundă să fie una dintre cele mai importante tehnologii din lume.

Între 2014 și 2021, tehnologia mare a abandonat practic principiile „web first” și „mobile first” în favoarea strategiilor „AI first”.

Acum, în 2022, dezvoltatorii și cercetătorii AI sunt mai solicitați (și plătiți mai mult) decât aproape orice altă slujbă tehnologică în afara suitei C.

Dar acest tip de creștere neîngrădită are și o latură întunecată. În cursa pentru a satisface cererea pieței pentru produse și servicii bazate pe învățarea profundă, domeniul a devenit la fel de tare și capricios ca sportul profesionist.

În ultimii câțiva ani, l-am văzut pe „GANfather” Ian Goodfellow trecând de la Google la Apple, Timnit Gebru și alții au fost dați afară din Google din cauza opiniilor divergente cu privire la eficiența căutării, iar un torent virtual de lucrări dubioase cu inteligență artificială reușesc cumva să treacă de colegii. revizuire.

Potopul de talent care a sosit ca urmare a exploziei învățării profunde a dus, de asemenea, la o alunecare de teren de cercetare proastă, fraudă și lăcomie corporativă.

Ce mai faci

Google, mai mult decât orice altă companie, poartă responsabilitatea paradigmei moderne AI. Asta înseamnă că trebuie să acordăm note G mari pentru a aduce procesarea limbajului natural și recunoașterea imaginilor în rândul maselor.

Înseamnă, de asemenea, că putem credita Google pentru crearea mediului cercetător-mănâncă-cercetător în care unii studenți și profesorii lor parteneri de mare tehnologie tratează lucrările de cercetare ca o simplă momeală pentru capitaliștii de risc și vânătorii de sefii de afaceri.

În vârf, Google și-a arătat disponibilitatea de a angaja cei mai talentați cercetători din lume. Și s-a arătat, de asemenea, de nenumărate ori că îi va concedia cât ai clipi dacă nu urmează linia de conduită a companiei.

Compania a făcut titluri în întreaga lume după ce l-a concediat pe Timnit Gebru, un cercetător pe care îl angajase pentru a ajuta la conducerea diviziei sale de etică AI, în decembrie 2020. Câteva luni mai târziu, ea a concediat un alt membru al echipei, Margaret Mitchell.

Google susține că munca cercetătorilor nu corespundea specificațiilor, dar femeile și mulți susținători spun că disponibilizările au avut loc doar după ce au ridicat preocupări etice cu privire la cercetarea pe care șeful Google, IA al companiei, Jeff Dean, a aprobat-o.

Acum a trecut puțin peste un an și istoria se repetă. Google a concediat un alt cercetător de renume mondial în domeniul inteligenței artificiale, Satrajit Chatterjee, după ce a condus o echipă de oameni de știință pentru a contesta o altă lucrare pe care o semnase Dean.

Efectul de alunecare de noroi

În partea de sus, aceasta înseamnă că concurența pentru locurile de muncă bine plătite este acerbă. Și vânătoarea pentru următorul cercetător sau dezvoltator talentat începe mai devreme ca niciodată.

Studenții care lucrează la diplome de absolvire în învățarea automată și AI, care în cele din urmă doresc să lucreze în afara mediului academic, ar trebui să scrie sau să coautoreeze lucrări de cercetare care să-și demonstreze talentul.

Din păcate, conducta de la mediul academic până la tehnologia mare sau lumea startup-urilor conduse de VC este plină de lucrări de rahat scrise de studenți a căror înclinație este să scrie algoritmi care pot fi monetizați.

O căutare rapidă în Google Academic pentru „prelucrarea limbajului natural”, de exemplu, aduce aproape un milion de rezultate. Majoritatea articolelor enumerate au sute sau mii de citări.

La prima vedere, acest lucru ar indica faptul că NLP este un subset înfloritor al cercetării învățării automate care a captat atenția cercetătorilor din întreaga lume.

De fapt, căutările pentru „rețea neuronală artificială”, „viziune pe computer” și „învățare prin consolidare” au dat toate rezultate similare.

Din păcate, o parte semnificativă a cercetării AI și ML este fie frauduloasă intenționată, fie plină de știință proastă.

Ceea ce poate să fi funcționat bine în trecut devine rapid un mod potențial depășit de comunicare a cercetării.

Stuart Richie de la Guardian a scris recent un articol în care se întreabă dacă ar trebui să eliminăm cu totul articolele de cercetare. Potrivit acestora, problemele științei sunt destul de profunde:

Acest sistem vine cu unele probleme mari. Principalul dintre ele este problema părtinirii publicării: recenzenții și editorii sunt mai predispuși să dea o lucrare științifică un articol bun și să o publice în jurnalul lor dacă raportează rezultate pozitive sau interesante. Prin urmare, oamenii de știință fac tot posibilul pentru a-și spori studiile, se bazează pe analizele lor pentru a produce rezultate „mai bune” și uneori chiar comit fraude pentru a-i impresiona pe acești paznici foarte importanți. Acest lucru distorsionează radical viziunea noastră asupra a ceea ce sa întâmplat cu adevărat.

Problema este că paznicii pe care toată lumea încearcă să-i impresioneze au tendința de a deține cheile viitoarelor angajări ale studenților și admiterii savanților la reviste sau conferințe prestigioase – savanții s-ar putea să nu obțină aprobarea lor, sub riscurile și pericolele lor.

Și, chiar dacă un articol reușește să treacă peer review, nu există nicio garanție că oamenii care fac lucrurile să se întâmple nu dorm la comutator.

Acesta este motivul pentru care Guillaume Cabanac, lector în informatică la Universitatea din Toulouse, a creat un proiect numit Problematic Paper Screener (PPS).

PPS folosește automatizarea pentru a semnala articole care conțin cod potențial problematic, matematică sau verbiaj. În spiritul științei și al corectitudinii, Cabanac se asigură că fiecare articol raportat este supus unei revizuiri umane manuale. Dar munca este probabil prea mare pentru ca o mână de oameni să o facă în timpul lor liber.

Potrivit unui raport al Spectrum News, există multe articole problematice. Și majoritatea are de-a face cu învățarea automată și AI:

Revizorul a estimat că aproximativ 7.650 de studii sunt problematice, inclusiv peste 6.000 pentru sentințe de torturare. Majoritatea articolelor cu propoziții torturate par să provină din domeniile învățării automate, inteligenței artificiale și ingineriei.

Frazele torturate sunt termeni care atrag atenția cercetătorilor pentru că încearcă să descrie un proces sau un concept deja bine stabilit.

De exemplu, utilizarea unor termeni precum „neuron fals” sau „neuron artificial” ar putea indica utilizarea unui plugin de tezaur folosit de actori răi care încearcă să scape cu plagiarea lucrărilor anterioare.

Soluția

Deși Google nu poate fi acuzat pentru tot ceea ce este nefavorabil în domeniile învățării automate și AI, a jucat un rol enorm în descentralizarea căutării evaluate de colegi.

Acest lucru nu înseamnă că Google nu sprijină și nu sprijină comunitatea științifică prin sursă deschisă, ajutor financiar și sprijin pentru cercetare. Și cu siguranță nu încercăm să sugerăm că toți cei care studiază AI sunt acolo doar pentru a câștiga bani rapid.

Dar sistemul este configurat pentru a încuraja mai întâi monetizarea algoritmilor și pentru a avansa în al doilea rând. Pentru ca acest lucru să se schimbe, tehnologia mare și universitățile trebuie să se angajeze să reformeze fundamental modul în care este prezentată și revizuită cercetarea.

În prezent, nu există o autoritate terță parte recunoscută pe scară largă pentru verificarea documentelor. Sistemul de evaluare inter pares seamănă mai mult cu un cod de onoare decât cu un set convenit de principii urmate de instituții.

Cu toate acestea, există un precedent pentru crearea și funcționarea unui comitet de supraveghere cu întindere, influență și expertiză pentru a guverna dincolo de granițele academice: NCAA.

Dacă putem unifica un sistem de competiție corectă pentru mii de programe de atletism de amatori, este un pariu sigur că am putea forma un organism de conducere care să stabilească linii directoare pentru căutarea și revizuirea academică.

Și, când vine vorba de Google, există o șansă mai mare decât zero ca CEO-ul Sundar Pichai să fie chemat din nou în fața Congresului, dacă compania continuă să-i concedieze pe cercetătorii pe care îi angajează pentru a-și supraveghea programele etice de IA.

Capitalismul american înseamnă că o companie este în general liberă să angajeze și să concedieze pe cine dorește, dar acționarii și lucrătorii au și ei drepturi.

În cele din urmă, Google va trebui să se angajeze în cercetarea etică sau se va găsi în imposibilitatea de a concura cu companiile și organizațiile care o doresc.

Add Comment