Cum a ajuns o companie de AI să valoreze 32 miliarde dolari la nici măcar un an de la înființare

Startup-ul denumit Safe Superintelligence Inc, fondat în iunie 2024 de Ilya Sutskever, fost cercetător-șef la OpenAI, a atins o evaluare de 32 de miliarde de dolari, după o rundă de finanțare la care au participat și giganții tech Alphabet (Google) și Nvidia. Ce este un AI sigur?
Un start lansat pentru SSI
Cum a fost posibil să se ajungă în zece luni la așa o sumă? Două lucruri sunt importante: un fondator faimos și un model de business bazat pe siguranță și performanță.
Startup-ul american de inteligență artificială Safe Superintelligence Inc a fost lansat în iunie 2024, de IT-istul de origine rusă Ilya Sutskever, iar trei luni mai târziu anunțase că a primit un miliard de dolari finanțare, fiind evaluat pe atunci la 5 miliarde dolari, scria StartupCafe.
În aprilie 2025 a urmat o altă rundă de finanțare, tot de un miliard de dolari, scrie TechCrunch, care citează surse ale Financial Times. Valoarea companiei a crescut în șapte luni de la 5 miliarde dolari, la 32 miliarde dolari.
Fonduri de investiții de prim rang au participat la această rundă de finanțare, inclusiv Greenoaks (cu o investiție de 500 milioane de dolari), Lightspeed Venture Partners și Andreessen Horowitz, potrivit mai multor surse citate de FT.
Safe Superintelligence (SSI) a fost fondat de Sutskever, alături de Daniel Gross (fost șef la Apple AI) și de Daniel Levy, startup-ul de AI având sedii în Silicon Valley (la Palo Alto, mai exact) și în Israel (la Tel Aviv). Compania își propune să dezvolte tehnologii de inteligență artificială pe care le cataloga ca fiind „sigure”.
Un AI sigur nu ai decizii arbitrare la adresa oamenilor
Ce este un AI sigur? Dezvoltarea de soft avansat fără presiuni comerciale sau de monetizare imediate. Această abordare s-a dovedit a fi foarte atrăgătoare pentru câțiva investitori mari.
Un AI sigur (safe AI) este un sistem de inteligență artificială proiectat și dezvoltat astfel încât să nu producă efecte negative neintenționate sau periculoase pentru oameni și societate. Un AI sigur NU ia decizii care pot face rău oamenilor, are un comportament previzibil și poate fi oprit au modificat fără a scăpa de sub control.
Ilya Sutskever este unul dintre cei mai influenți cercetători în domeniul inteligenței artificiale. În calitate de cofondator și fost cercetător-șef al OpenAI, a contribuit la dezvoltarea modelelor de tip GPT.
Ilya Sutskever a ocupat funcția de „Chief Scientist” (cercetător-șef) al OpenAI, dar a demisionat în mai 2024. Ilya Sutskever este unul dintre cei care au susținut ca Sam Altman să fie demis din funcția de CEO al OpenAI în noiembrie 2023, dar și-a reconsiderat ulterior poziția.
Sutskever este născut la Nijni Novgorod, în Rusia, având acum triplă cetățenie: israeliană, canadiană și rusă. El și-a făcut studiile în Israel și Canada.
Safe Superintelligence Inc și-a propus să creeze modele AI mult mai puternice și mai „smart” decât cele mai avansate modele dezvoltate de OpenAI, Anthropic și Google.
SSI a furnizat puține detalii despre cum intenționează să-și depășească rivalii care au bugete mai mari. Financial Times a citat surse care spun că SSI lucrează la „metode unice de dezvoltare și scalare a modelelor AI”.
Sursa foto: Dreamtime.com