A világ még mindig találgatja, mi állhatott pontosan az OpenAI-nál napokon át tartó káoszhoz, még úgy is, hogy biztost választ vélhetően soha nem fogunk kapni. Kettő, az ügyet ismerő személy azonban egy eddig nem ismert részletet árult el a Reutersnek.
Mint mondták, Sam Altman vezérigazgató elbocsátásához egy mesterséges intelligencia fejlesztésével kapcsolatos áttörés járulhatott hozzá. Az információk szerint a szappanopera kirobbanása előtt a cég több kutatója levelet írt az igazgatótanácsnak, amelyben egy hatalmas, mesterséges intelligenciával kapcsolatos felfedezésre figyelmeztettek, amely szerintük veszélyt jelenthet az emberiségre.
Az érintettek szerint a levél csak az egyik érv volt az Altman kirúgásához vezető hosszú felsorolásban. A listában az is helyet kapott, hogy az OpenAI többször is azelőtt tett nyilvánossá fejlesztéseket, mielőtt megvizsgálták volna, hogy az milyen következményekkel járhat.
A cég munkatársai közül néhányan úgy vélik, hogy a Q* áttörést jelenthet a mesterséges általános intelligencia (AGI) fejlesztésében. A szivárogtatások szerint a modell komoly eredményeket ért el a különösen problémásnak számító matematikai problémamegoldás terén.
Hatalmas számítási erőforrások mellett az új modell képes volt bizonyos matematikai problémák megoldására. Bár a képességeit egyelőre nem tartják túl magasnak, a tesztek teljesítése nagyon optimistává tette a kutatókat a Q* jövőbeli sikereit illetően
— mondta egy névtelen megszólaló. Az OpenAI egyébként egy olyan autonóm rendszerként definiálja az AGI-t, amely a legtöbb gazdaságilag releváns feladatban felülmúlja az embert. Azt, hogy az OpenAI ezt már az idei évben elérheti, korábban is jelezte egy megbízható szakértő.