Sci-Tech

Motivul pentru care giganții din domeniul tehnologiei sunt interesați de reglementarea inteligenței artificiale

post-img
ChatGPT

Una dintre bucuriile de a scrie despre afaceri este acel moment rar în care îți dai seama că convențiile se schimbă în fața ta. Îți provoacă un fior pe șira spinării. Cu voioșie, începi să mâzgălești fiecare detaliu din jurul tău, ca și cum ai redacta primele rânduri ale unui bestseller, scrie The Economist, preluat de stiriletvr.ro.

I s-a întâmplat editorialistului recent, la San Francisco, stând în birourile imaculate ale Anthropic, o companie îndrăgită a scenei inteligenței artificiale (IA). Atunci când Jack Clark, unul dintre cofondatorii Anthropic, a făcut o analogie între Planul Baruch, un efort (eșuat) din 1946 de a pune sub control ONU armele atomice din lume, și nevoia de coordonare globală pentru a preveni proliferarea IA dăunătoare, a existat acea veche furnicătură familiară. Atunci când antreprenorii își compară creațiile, chiar și tangențial, cu bombele nucleare, se simte ca un punct de cotitură.

De când ChatGPT a ieșit la rampă, la sfârșitul anului trecut, nu au lipsit nici un fel de neliniști cu privire la riscurile existențiale pe care le prezintă IA. Dar acest lucru este diferit. Dacă îi ascultăm pe unii dintre pionierii acestui domeniu, aceștia sunt mai puțin îngrijorați de un viitor distopic în care mașinile vor fi mai inteligente decât oamenii și mai mult de pericolele care se ascund în ceea ce fac acum. ChatGPT este un exemplu de inteligență artificială „generativă”, care creează conținut asemănător cu cel uman pe baza analizei textelor, imaginilor și sunetelor de pe internet. Sam Altman, directorul executiv al OpenAI, compania nou înființată care l-a creat, a declarat în această lună, în cadrul unei audieri în Congres, că intervenția autorităților de reglementare este esențială pentru a gestiona riscurile generate de „modelele lingvistice mari” (llms) din ce în ce mai puternice din spatele roboților.

În absența unor reguli, unii dintre omologii săi din San Francisco spun că au stabilit deja canale de rezervă cu oficiali guvernamentali din Washington, DC, pentru a discuta despre potențialele prejudicii descoperite în timpul examinării chatboților lor. Printre acestea se numără materiale toxice, cum ar fi rasismul, și capacități periculoase, cum ar fi îngrijirea copiilor sau fabricarea de bombe. Mustafa Suleyman, cofondator al Inflection AI (și membru al consiliului de administrație al companiei-mamă a The Economist), intenționează ca în săptămânile următoare să ofere recompense generoase hackerilor care pot descoperi vulnerabilități în companionul digital vorbitor al firmei sale, Pi.

O astfel de prudență face ca acest boom tehnologic incipient să pară diferit de trecut - cel puțin la suprafață. Ca de obicei, capitalul de risc este în creștere. Dar, spre deosebire de abordarea „mișcă-te repede și sparge lucruri” de altădată, multe dintre propunerile de start-up-uri de acum se referă în primul rând la siguranță. Vechiul adagiu din Silicon Valley despre reglementare - că este mai bine să ceri iertare decât permisiune - a fost abandonat. Startup-uri precum OpenAI, Anthropic și Inflection sunt atât de dornice să transmită ideea că nu vor sacrifica siguranța doar pentru a face bani, încât au pus în aplicare structuri corporative care limitează maximizarea profitului.

Un alt mod în care acest boom pare diferit este faptul că startup-urile care își construiesc sistemele de proprietate intelectuală nu urmăresc să răstoarne ierarhia existentă a marilor tehnologii. De fapt, ele pot contribui la consolidarea acesteia. Acest lucru se datorează faptului că relațiile lor cu giganții tehnologici care conduc în cursa pentru IA generativă sunt simbiotice. OpenAI este unită cu Microsoft, un mare investitor care folosește tehnologia primului pentru a-și îmbunătăți software-ul și produsele de căutare. Google, compania Alphabet, deține o participație considerabilă în Anthropic; pe 23 mai, startup-ul a anunțat ultima sa rundă de finanțare de 450 de milioane de dolari, care a inclus mai multe investiții din partea gigantului tehnologic. Făcându-și legăturile de afaceri și mai strânse, tinerele firme se bazează pe platformele de cloud computing ale big tech pentru a-și antrena modelele pe oceane de date, care permit roboților de chat să se comporte ca niște interlocutori umani.

La fel ca și startup-urile, Microsoft și Google sunt dornice să arate că iau în serios siguranța, chiar dacă se luptă cu înverșunare în cursa chatboților. Și ei susțin că sunt necesare noi reguli și că este esențială cooperarea internațională în ceea ce privește supravegherea LLMS. După cum a afirmat Sundar Pichai, directorul general al Alphabet, „IA este prea importantă pentru a nu fi reglementată și prea importantă pentru a nu fi reglementată bine”.

Astfel de demersuri pot fi perfect justificate de riscurile de dezinformare, manipulare electorală, terorism, perturbarea locurilor de muncă și alte pericole potențiale pe care le pot genera modelele tot mai puternice de IA. Cu toate acestea, merită să ținem cont de faptul că reglementarea va aduce, de asemenea, beneficii giganților din domeniul tehnologiei. Aceasta deoarece tinde să consolideze structurile de piață existente, creând costuri pe care operatorii tradiționali le suportă cel mai ușor și ridicând bariere la intrare.

Acest lucru este important. Dacă marile companii de tehnologie se folosesc de reglementări pentru a-și consolida poziția de lider al generației de inteligență artificială, există un compromis. Este mai probabil ca giganții să implementeze tehnologia pentru a-și îmbunătăți produsele existente decât pentru a le înlocui cu totul. Aceștia vor căuta să își protejeze afacerile de bază (software de întreprindere în cazul Microsoft și de căutare în cazul Google). În loc să deschidă o eră de distrugere creativă schumpeteriană, acest lucru va servi drept o reamintire a faptului că marii operatori tradiționali controlează în prezent procesul de inovare - ceea ce unii numesc „acumulare creativă”. Tehnologia ar putea sfârși prin a fi mai puțin revoluționară decât ar putea fi.

Un astfel de rezultat nu este o concluzie previzibilă. Unul dintre jaloanele de rezervă este sistemul de IA open-source, care a proliferat din martie, când LLMAA dezvoltat de Meta a fost dezvăluit online. Deja se vorbește în Silicon Valley despre faptul că dezvoltatorii open-source sunt capabili să construiască modele generative IA care sunt aproape la fel de bune ca cele existente, la sutimi din cost.

Clark, de la Anthropic, descrie IA open-source ca fiind un „concept foarte îngrijorător”. Deși este o modalitate bună de a accelera inovația, este, de asemenea, dificil de controlat, fie că se află în mâinile unui stat ostil, fie că se află în mâinile unui creator de ransomware de 17 ani. Aceste preocupări vor fi analizate pe măsură ce organismele de reglementare din lume se vor confrunta cu IA generativă. Microsoft și Google - și, prin extensie, cei pe care îi plătesc pentru startup-uri - au buzunare mult mai mari decât dezvoltatorii open-source pentru a face față la oricăror neajunsuri pe care le vor găsi autoritățile de reglementare. De asemenea, ei au o miză mai mare în păstrarea stabilității sistemului de tehnologie a informației care i-a transformat în titani. Pentru prima dată, dorința de siguranță și cea de profit ar putea fi aliniate.

author-img_1

Cristina Mirca

Reporter