Reuters: Fostul cercetător-șef de la OpenAI a strâns 1 miliard de dolari pentru noua sa companie, SSI, care va lucra la o inteligență artificială mai sigură

dreamstime_m_132528154 Sursa foto: Ai © Wrightstudio | Dreamstime.com

„Safe Superintelligence” (SSI), recent fondată de fostul cercetător-șef de la OpenAI, Ilya Sutskever, a strâns 1 miliard de dolari pentru a contribui la dezvoltarea unor sisteme de inteligență artificială sigure care depășesc cu mult capacitățile umane, au declarat pentru Reuters directorii companiei.

SSI, care are în prezent 10 angajați, intenționează să utilizeze fondurile pentru a achiziționa capacități de calcul și, de asemenea, să angajeze talente de top. Compania se va concentra pe construirea unei mici echipe de cercetători și ingineri pe care să se bazeze. Echipa se va împărți între Palo Alto, California și Tel Aviv, Israel.

Compania a refuzat să împărtășească evaluarea sa, dar surse apropiate de aceasta au declarat că a fost evaluată la 5 miliarde de dolari. Finanțarea subliniază modul în care unii investitori sunt încă dispuși să facă pariuri extraordinare pe talente excepționale axate pe cercetarea fundamentală a Inteligenței Artificiale. Acest lucru se întâmplă în ciuda unei scăderi a interesului pentru finanțarea unor astfel de companii care pot fi neprofitabile o perioadă de timp, mai mulți fondatori de startup-uri luând decizia de a-și părăsi funcțiile pentru a lucra la giganți din domeniul tehnologiei.

Printre investitori se numără firmele cu capital de risc Andreessen Horowitz, Sequoia Capital, DST Global și SV Angel. A participat și NFDG, un parteneriat de investiții condus de Nat Friedman și directorul executiv al SSI, Daniel Gross.

„Este important pentru noi să fim înconjurați de investitori care înțeleg, respectă și susțin misiunea noastră de a face o cale directă către superinteligența sigură și, în special, de a petrece câțiva ani făcând cercetare și dezvoltare pe produsul nostru, înainte de a-l aduce pe piață”, a declarat Gross într-un interviu.

Siguranța inteligenței artificiale, care se referă la prevenirea daunelor cauzate de AI, este un subiect fierbinte, pe fondul temerilor că IA scăpată de sub control ar putea acționa împotriva intereselor umanității sau chiar să provoace dispariția oamenilor.

Un proiect de lege din California, ce urmărește să impună companiilor reglementări privind siguranța, a divizat industria. Companii precum OpenAI și Google se opun acestui proiect, care este susținut de Anthropic și xAI a lui Elon Musk.

Sutskever, în vârstă de 37 de ani, este unul dintre cei mai influenți specialiști în tehnologie din domeniul IA. El a co-fondat SSI în iunie împreună cu Gross, care a condus anterior inițiativele AI la Apple, precum și cu Daniel Levy, un fost cercetător de la OpenAI.

Sutskever este cercetător-șef și Levy este cercetător principal, în timp ce Gross este responsabil cu puterea de calcul și cu strângerea de fonduri.

Sutskever a declarat că noua sa aventură are sens deoarece a „identificat un munte care este puțin diferit de ceea ce lucram”.

Anul trecut, el a făcut parte din consiliul de administrație al societății-mamă non-profit a OpenAI, care a votat pentru demiterea directorului general Sam Altman, din cauza unei „probleme de comunicare”.

În câteva zile, el a revenit asupra deciziei sale și s-a alăturat aproape tuturor angajaților OpenAI pentru a semna o scrisoare prin care cerea întoarcerea lui Altman și demisia consiliului. Dar răsturnarea de situație i-a diminuat rolul la OpenAI. El a fost înlăturat din consiliu și a părăsit compania în luna mai.

După plecarea lui Sutskever, compania a desființat echipa sa „Superalignment”, care lucra pentru a se asigura că IA rămâne aliniată cu valorile umane și să fie pregătită pentru o zi în care IA va depăși inteligența umană.

Spre deosebire de structura corporativă neconvențională a OpenAI, implementată din motive de siguranță, dar care a făcut posibilă demiterea lui Altman, SSI are o structură obișnuită pentru profit.

În prezent, SSI se concentrează foarte mult pe angajarea persoanelor care se vor integra în cultura sa.

Gross a declarat că petrec ore întregi verificând dacă candidații au „un caracter bun” și caută oameni cu capacități extraordinare, mai degrabă decât să pună prea mult accent pe acreditări și experiență în domeniu.

„Un lucru care ne entuziasmează este atunci când găsim oameni care sunt interesați de muncă, care nu sunt interesați de scenă, de hype”, a adăugat el.

SSI spune că intenționează să se asocieze cu furnizori de servicii cloud și companii producătoare de microcipuri pentru a-și finanța nevoile de putere de calcul, dar compania nu a decis încă cu ce firme va lucra. Startup-urile de inteligență artificială lucrează adesea cu companii precum Microsoft și Nvidia pentru a răspunde propriilor nevoi de infrastructură.

Sutskever a fost unul dintre primii susținători ai extinderii, o ipoteză conform căreia modelele de inteligență artificială își vor îmbunătăți performanțele dacă vor dispune de mari capacități pentru putere de calcul. Ideea și punerea sa în aplicare au declanșat un val de investiții privind IA în cipuri, centre de date și energie, punând bazele unor progrese ale inteligenței artificiale generative precum ChatGPT.

Sutskever a declarat că va aborda extinderea într-un mod diferit față de fostul său angajator, fără a împărtăși detalii. „Toată lumea vorbește doar despre ipoteza de extindere.  Toată lumea neglijează să întrebe ce anume extindem?”, a spus acesta. „Unii oameni pot lucra foarte multe ore și vor merge pe aceeași cale mai repede. Nu este chiar stilul nostru. Dar dacă faci ceva diferit, atunci devine posibil să faci ceva special”.

Sursa foto: Ai © Wrightstudio | Dreamstime.com

Urmărește mai jos producțiile video ale Economedia: