OpenAI’s voormalige hoofdwetenschapper Ilya Sutskever start een nieuw AI-bedrijf, amper een maand nadat hij zijn vertrek bij OpenAI heeft aangekondigd. “Ik start een nieuw bedrijf”, genaamd Safe Superintelligence Inc. (SSI), kondigde hij woensdag laat aan.
SSI is gevestigd in Amerika en heeft kantoren in Palo Alto en Tel Aviv. In een officiële post zei de startup dat het “één doel en één product heeft: een veilige superintelligentie.” Sutskever vulde dit aan met:
“We streven naar veilige superintelligentie in één oogopslag, met één focus, één doel en één product. We zullen dit doen door middel van revolutionaire doorbraken, geproduceerd door een klein, gebarsten team.”
“Onze unieke focus zorgt ervoor dat er geen afleiding is”, zegt SSI
SSI wordt momenteel geleid door Sutskever, Daniel Gross, en een andere voormalige OpenAI-onderzoeker, Daniel Levy. De investeerders achter de startup zijn op het moment van schrijven nog onbekend.
Het bedrijf merkte echter in de aankondiging op dat het hele “team, de investeerders en het bedrijfsmodel allemaal op één lijn zitten om “een veilige superintelligentie” te bereiken. De opmerking is wellicht direct gericht naar OpenAI, dat ooit werd aangeklaagd door Elon Musk omdat het winst op de eerste plaats stelde boven de mensheid en zijn oorspronkelijke missie had opgegeven. Sutskever ging verder met:
“Onze unieke focus betekent dat we ons niet laten afleiden door managementoverhead of productcycli, en ons bedrijfsmodel betekent dat veiligheid, beveiliging en vooruitgang allemaal geïsoleerd zijn van commerciële druk op de korte termijn.”
Zijn verleden bij OpenAI
Sutskever kondigde op 15 mei aan dat hij OpenAI verlaat na bijna tien jaar bij het toonaangevende AI-bedrijf te hebben gewerkt. Voordien besloot hij een periode van radiostilte in te gaan na een mislukte poging om CEO Sam Altman uit OpenAI te verdrijven in december vorig jaar.
Een andere OpenAI-directeur, Jan Leike, nam ontslag na Sutskever. Beiden gaven mede leiding aan het Superalignment-team bij OpenAI, dat verantwoordelijk is voor het voorkomen dat superintelligente AI-modellen kwaadaardig worden.
Sutskever gaf niet duidelijk aan waarom hij OpenAI verliet. Leike haalde echter veiligheidsproblemen bij het bedrijf aan en zei dat “de veiligheidscultuur en -processen de afgelopen jaren een achterbank hebben ingenomen ten opzichte van glanzende producten.” Hij vervolgde met:
“Ik ben lid geworden omdat ik dacht dat OpenAI de beste plek ter wereld zou zijn om dit onderzoek te doen. Ik ben het echter al geruime tijd oneens met het leiderschap van OpenAI over de kernprioriteiten van het bedrijf, totdat we uiteindelijk een breekpunt bereikten.”