Az MI-cégek az új gyarmatosítók, a birodalmuk illúziókból épült, de a hatalmuk nagyon is valóságos

„Az OpenAI egy nonprofit, mesterséges intelligencia kutatásával foglalkozó cég. A célunk, hogy a pénzügyi megtérülés szükségességének béklyói nélkül, az emberiség javát leginkább szolgáló módon fejlesszük a digitális intelligenciát. Úgy gondoljuk, hogy az MI-nek az emberi akaratot kell kiegészítenie, és a szabadság jegyében a lehető legszélesebb körben elérhetővé kell válnia” – olvasható az OpenAI 2015 decemberében közzétett bemutatkozásában. Szűk tíz évvel később a már évek óta hibrid struktúrában működő cég az emberiség javát leginkább szolgáló módon engedélyezte az erotikus tartalmakat a csetbotjában, aztán bejelentette: hivatalosan is profitorientált vállalat lett belőle, amit így akár tőzsdére is lehetne vinni, pár nappal később pedig 38 milliárd dolláros üzletet kötött az Amazonnal.
Ezt a két irányt ránézésre is nehéz összeegyeztetni egymással, de ha valaki követte az elmúlt években az OpenAI-t a tényleg lenyűgöző demóikon túl is, annak azért lehetett némi fogalma arról, hogy a cégnél még annál is nagyobb problémák vannak, mint amire ez az ellentmondás önmagában utal. Ezt lehetett kiolvasni a júniusban publikált, nagyon részletes OpenAI-aktákból, és ezt mutatta be Karen Hao is Az AI birodalma című könyvében is, ami múlt héten magyarul is megjelent. Hao ebben odáig megy, hogy a gyarmatosító birodalmakkal állítja párhuzamba a mesterséges intelligencia éllovasait, és olyan átfogó képet ad az OpenAI-ról, amit eddig talán sosem láthattunk.
Itt vannak az új birodalmak
Hao az elmúlt években rengeteg cikkben foglalkozott a mesterséges intelligencia (MI, angol rövidítéssel AI) fejlődésével, illetve konkrétan az OpenAI-jal, amit könyvében „a modern kori gyarmati világrend szálláscsinálójának” nevez. Amikor 2023-ban az OpenAI az addigi legnagyobb válságába került, miután az igazgatótanács kirúgta a cég éléről Sam Altmant, Hao az Atlanticre írt cikkében mutatta be, hogy nézett ki a folyamat belülről – ez akkoriban a Telexen is megjelent. Az AI birodalma részben ezeknek a cikkeknek a szintézise, és ha valaki az átlagnál szorosabban követte a cég sztoriját, annak sok dolog nem lesz újdonság benne.
Az is egyértelműen látszik ugyanakkor, hogy Haónál jobban kevesen ismerik a cég működését, ambícióit, hibáit és fontosabb szereplőit, beleértve ebbe magát Altmant is. Ez pedig nagyon fontos, mert az apró részletek engednek leginkább betekintést a kulisszák mögé, és ezekből rajzolódik ki, hogy bár az OpenAI (és az egész szektor) az embert túlszárnyaló mesterséges intelligenciát akarja megalkotni, olyan konfliktusok, érzelmek, aggályok és hatalmi harcok feszítik szét, amik annyira eredendően emberiek, hogy egy robot csak álmodozhat a reprodukálásukról.
Ezt Hao is pedzegette a magyarul a HVG Könyvek gondozásában megjelent könyve múlt heti bemutatóján. (Egyébként ez a könyv első idegen nyelvű kiadása.) Szerinte ironikus, hogy az emberi pszichéhez fantasztikusan jól értő, a befektetőket, az alkalmazottait és mindenki mást is az ujjai köré csavaró Altman pont egy ennyire emberi dologban a legjobb, miközben olyan céget vezet, ami lényegében az emberek leváltásán ügyködik. Az újságíró szerint könyvének fő kérdése, hogy hogyan szabályozzuk úgy az MI-t, hogy az hasznára váljon az emberiségnek,
a jelenlegi, egyre nagyobb, papíron mindenre használható generatív nagy nyelvi modelleket (LLM) pedig nem pusztán feleslegesnek tartja, hanem azt gondolja róluk, hogy kizárólag a Szilícium-völgynek jók, és a legnagyobb cégek hatalmát betonozzák be.
Röviden kifejtette azt is, hogy ezek a cégek szerinte miért olyanok, mint a birodalmak: elveszik mások tulajdonát (jelen esetben az adatokat), kizsákmányolják a szegény országokat (mind az olcsó munkaerővel, mind a rendkívül erőforrás-igényes adatközpontokkal) és monopolizálják a tudást (mert elképesztő pénzekkel láncolják magukhoz az MI-vel foglalkozó kutatókat, amivel teljesen megölik a nonprofit kutatást). Hao szerint utóbbi olyan mértékben torzítja a tudományt, mintha, mondjuk, olajcégek pénzelnék az éghajlatkutatásokat.
Végezetül Hao arra is felhívta a figyelmet, hogy ezek a cégek állítják: ők a jó oldalon állnak, és ha mindent megadnak nekik, amit kérnek, akkor elhozzák az utópiát, ha viszont nem, akkor a technológia apokalipszishez vezet majd. Ez azért fontos elem szerinte, mert az OpenAI-nál sem csak a pénzről szól a történet, a cég be akarja írni magát a történelemkönyvekbe az embert a legtöbb feladatban túlszárnyaló általános mesterséges intelligencia (AGI) megalkotásával és az emberiség új korszakának megnyitásával. Ez a messianisztikus küldetéstudat nemcsak ideológiailag fontos, az AGI a potenciális alkalmazottaknak, a befektetőknek és a politikusoknak is a leginkább csalogató hívó szó.

A manipulatív zseni
Mindebből elég jól látszik, hogy Hao elég kritikus az OpenAI-jal, és a könyvét olvasva nagyjából a prológus elolvasása után már le lehet vonni ugyanezt a következtetést. Az AI birodalma elég erősen nyit, rögtön abba a pillanatba érkezünk meg, ahol a cég igazgatótanácsa közli Altmannel, hogy ki van rúgva, aztán azt is végigkövethetjük, ahogy a teljes összeomlás fenyegetésének súlya alatt visszahelyezik őt a pozíciójába, és ennek a cégnél látszólag mindenki nagyon örül. Az is kiderül ugyanakkor, hogy mire ide jutott az OpenAI, már rég nem az a cég volt, aminek az alapításakor vagy pár évvel később kikiáltották.
A szárnyalása nemcsak magát a céget rontotta meg, hanem az MI fejlődési pályáját is rémisztő irányba vitte el, de Hao szerint még nem késő, hogy változtassunk ezen.
A könyv ezután bő négyszáz oldalon és 18 fejezeten át mutatja be nemcsak az OpenAI-t, hanem a technológia fejlődését, sőt azt is, hogy ennek milyen hatása van azokra az országokra, amiket ezek a modern kori birodalmak kizsákmányolnak. Annyiban lineáris, hogy eljutunk az OpenAI sztorijának elejéről a végére, de közben annyi vargabetű, kitérő és újraindított vagy kicsit bővebben ismét előszedett sztoriszál van benne, hogy a rengeteg névvel és helyszínnel együtt kifejezetten nehéz követni, ami engem eléggé bosszantott olvasás közben. De ezzel együtt is bőven van benne annyi érdekesség, hogy még a témával viszonylag sokat foglalkozó újságíróként is érdemes volt elolvasni.
A legérdekesebb talán az volt benne, hogy ennyire részletesen valószínűleg csak az eredetileg szintén idén májusban megjelent, Altman közreműködésével készült The Optimistben mutatták be az OpenAI alapítójának személyiségét. Hao sosem beszélt vele élőben, de ahogy arra a New York Times rámutatott, mindkét könyvből jól látszik, hogy Altman tényleg mesteri manipulátor, aki fantasztikus abban, hogy bárkit meggyőzzön bármiről – a különbség csak az, hogy ezt a két könyv hogyan keretezi, de az mindkettőből látszik, hogy Altman szereti elferdíteni az igazságot. Gyakran olyankor is, amikor ennek igazából nincs is értelme.
Az AI birodalma alapján Altman legalább olyan jól torzítja a valóságot, mint annak idején Steve Jobs, ebben pedig nagy segítségére van, hogy rendkívül figyelmes, de a megszerzett információkat arra használja, hogy befolyásolja a beszélgetőpartnerét, méghozzá úgy, hogy az illető észre se vegye, hogy a kezére játszik. Altman ez alapján kiváló politikus lehetne, el is játszott a gondolattal, hogy kaliforniai kormányzó legyen, de végül maradt az OpenAI-nál. Ahol a játszmái, a ferdítései, sőt később a hazugságai a cég felemelkedésével egyre durvábbak lettek, és amikor húga, Annie Altman előbb lelki, aztán szexuális bántalmazással vádolta meg őt, többen is azon kapták magukat, hogy értik, miről beszél a nő. Ennek lett a vége Altman eltávolítása, de ahogy korábban mindig, ebből a válságból is győztesen került ki.
Az AGI-paradoxon
Altman személye mellett két fontos dolog jelenik még meg a könyvben, és ezek össze is függnek egymással. Hao a könyv egyik fejezetét annak szentelte, hogy összefoglalja, egyáltalán honnan jutottunk el ahhoz a kifejezéshez, hogy mesterséges intelligencia, és hogyan zajlott a technológia fejlesztése. Szerinte az elnevezés minden mai probléma kiindulópontja, egyrészt mert nem is lehet konkrétan definiálni, hogy mi az a mesterséges intelligencia, másrészt pedig mert a kifejezés magában hordozza azt, hogy antropomorfizáljuk a technológiát.
Emiatt az intelligencia látszatát is intelligenciának tekintjük, és az MI fejlesztése során is emberi tulajdonságokat próbálunk reprodukálni. A könyv külön fejezetet szentel ennek, és kifejezetten jól is magyarázza el az MI fejlesztésének két irányzatát, a tudáson alapuló szimbolizmust, illetve a (gépi) tanuláson alapuló konnektivizmust, amiből a ma népszerű, statisztikai mintáktól függő generatív modellek születtek. Meg azt is, hogy hogyan lett utóbbi a preferált, majd főleg az OpenAI-nak köszönhetően szinte az egyetlen módja a mesterséges intelligencia fejlesztésének. Pedig mára látszik, hogy
akármekkorára nőnek, ezek a modellek mindig fognak hibázni, és valójában csak az intelligencia illúzióját hozzák létre, a végtelenségig skálázásuk pedig hosszú távon fenntarthatatlan, és megfojtja az innovációt.
Ezt amúgy nemcsak a könyvben idézett szakértők állítják, évek óta erről beszél az MI keresztapja, a Metától éppen a napokban távozott Yann LeCun is, aki szerint senkinek nem kellene LLM-ekkel foglalkoznia, és biztos benne, hogy ezzel nem fogjuk elérni az AGI-t. Pedig az OpenAI annak idején ezt tűzte ki célul, és a vezetői az összes bukkanó ellenére végig szentül hittek abban, hogy meg lehet valósítani – legfeljebb abban nem, hogy Altman a megfelelő ember a cég élén.
Az AGI az OpenAI szerint az emberiség minden problémáját megoldhatja, de ők sem tudták soha definiálni, hogy egyáltalán mi az az intelligencia. Így pedig, miután az OpenAI ennek az egész folyamatnak a zászlóvivője, az MI és az AGI is bármi lehet, ami éppen kézre esik nekik, és ezt láthatóan ki is használják. Emiatt nincsenek jelenleg alternatívái annak, amit az OpenAI csinál: számítási kapacitásban és a felhasznált adatok mennyiségét tekintve is a mélytanuláson alapuló, általános generatív modelleket és az azokhoz szükséges infrastruktúrát skálázzák a végtelenségig, sokszor a biztonsági óvintézkedések lazításával. Ahelyett, hogy, mondjuk, kombinálnák őket az előre programozott tudásra épülő rendszerekkel, vagy a tanítási folyamatot tennék hatékonyabbá, ahogy azt például Kínában is csinálják.
Ahogy Hao is írja, az OpenAI és igazából szinte az egész szektor általában azzal takarózik, hogy az AGI elérése elkerülhetetlen, a kérdés csak az, hogy ki valósítja meg. Főleg ezért adott ki az OpenAI az évek során egyre több modellt, és a ChatGPT megjelenése óta erre hivatkozva mérgesedett el a viszony az MI-ben korábban szorosan együttműködő Kína és Amerika között is. Az amerikai politikusok ugyanis elhitték az MI-cégeknek, hogy a majdani AGI-jal és az annak esetleges rossz kezekbe kerülésével járó veszélyekkel kell foglalkozni. Hao szerint azonban a ma létező MI aktuális problémái sokkal fontosabbak lennének, és meggyőző példákat is hoz erre.
A könyvben több olyan konkrét példa van kibontva, ami megmutatja, hogyan zajlik a gyarmatosítás akkor, ha országok helyett az OpenAI és más nagy techcégek, például a Google birodalma csinálja. Az egyik ilyen az, hogy még a ChatGPT megjelenése előtt az OpenAI úgy hozta létre azt az automatizált tartalomszűrőt, ami később a rázós tartalmakat szűrte, hogy előtte fillérekért dolgozó kenyaiaknak kellett sokszor gyomorforgató tartalmakat katalogizálniuk nap mint nap, és ez legalább egy embernek dokumentáltan tönkre is tette az életét. Nem ez volt egyébként az első eset, amikor kiszolgáltatott embereket zsákmányoltak ki a gépi tanulás előremozdításához, Venezuelában az önvezető autók berobbanásakor zajlott le ugyanez.

Egy másik jellemző példa, amikor valamelyik gigacég adatközpontot akart építeni egy olyan helyre, ahol egy ilyen épület energia- és vízigénye beláthatatlan következményekkel járt volna a környékükre nézve. Így történt ez Chilében és Uruguayban is, és ha a helyiek nem fogtak volna össze és tettek volna meg mindent, hogy egy amerikai cég ne sajátíthassa ki az ivóvizüket és az áramukat, akkor gond nélkül meg is valósították volna ezeket az adatközpontokat úgy, ahogy eredetileg elképzelték őket. Az ugyanakkor, hogy sikerült megakadályozni ezeket, azt is megmutatja, van remény arra, hogy máshogy csináljuk a dolgokat.
Bicikliket a rakéták helyett
Hao a könyvbemutatón érzékletes példával szemléltette, hogy hol tartunk most. Szerinte az MI olyan, mint a közlekedés, mindenhol ott van, de míg a közlekedésnél különbséget teszünk a különféle eszközök között, addig az MI-ről csak általánosan beszélünk. Pedig ahogy egy bicikli és egy rakéta között, úgy két MI-modell között is rengeteg különbség lehet, és a jelenlegi generatív modellek inkább olyanok, mint egy rakéta: a legtöbb esetben nincs rá szükség, mert van olyan speciális utazási mód, ami sokkal hatékonyabb.
Az MI-nél is vannak ilyen speciális modellek, mint a fehérjék szerkezetét megjósoló AlphaFold, a Climate Change AI vagy a könyvben hosszan taglalt Te Hiku saját beszédfelismerő MI-je, amit a maorikkal szorosan együttműködve fejlesztettek ki, hogy megóvhassák a nyelvüket. De még ha generatív modellt akarunk is, azok is lehetnek kisebbek, ahogy azt a kínai DeepSeek is megmutatta.
Hao szerint az egyre sürgetőbb problémát jelentő klímaváltozás miatt már nem lehet azt mondani, hogy a piac majd hosszú távon korrigál, vagy az MI egyszer majd hatékonyabb lesz, valamivel ki kellene egyensúlyozni a kapitalizmus törvényeit. Ehhez elsősorban a cégeknél, a tudományos közösségben és a szabályozó szerveknél kéne szemléletváltás, de az emberek is tehetnek a változásért – például azzal, hogy beszélnek arról, hogy mivel jár a nagy cégek csetbotjainak használata, vagy azzal, hogy ezek helyett inkább egy nyílt forráskódú modellre váltanak.