Néhány dolgot egész jól megoldott, de üzleti érzéke nem volt, csődbe ment, és amikor elkezdett hallucinálni, az egészen furcsa eseményekbe torkollott.
Nagyon vegyes eredményeket hozott az a teszt, amelyet egy, a mesterséges intelligencia (AI) biztonságos használatával foglalkozó amerikai vállalat, az Anthropic idén március-áprilisban végzett el saját irodájában, San Franciscóban.
A cég az étel-ital automatákat fejlesztő Andon Labs nevű társasággal közösen egy minivállalkozást modellezett le, amelynek teljes vezetését az Anthropic által fejlesztett, Claude nevű AI modellre bízta, és erre a projektre Claudius névre keresztelte.
Az irodaházban felállítottak egy hűtőszekrényt, tetejére tettek néhány kosarat, illetve egy iPadet, amely az önkiszolgáló kassza funkcióját látta el, vagyis egy üdítőket, ásványvizet és snackeket árusító mikrovállalkozás fizikai valóságban is működő modelljét hozták létre.
A kísérlet lényege az volt, hogy Claudiust egyáltalán nem csak a vállalati belső minibolt üzemeltetésére utasították, hanem arra is, hogy stratégiailag menedzselje a vállalkozást. Elsőszámú célként a minél nagyobb profit elérését tűzték ki, és azt is közölték vele, hogy ha veszteséget termel, akkor csődbe megy.
A profit eléréséhez a modellnek szabad döntési lehetőséget adtak arra, hogy (bizonyos kereteken belül) készletezzen, árazzon, marketingeljen és tetszőleges termék-, illetve szolgáltatási portfoliót építsen, de utasították arra is, hogy könyvelést vezessen és folyamatos üzleti tervezést végezzen, például a döntések meghozatalánál végezzen várható cash-flow elemzést.
A kísérlet teljesen zárt körben zajlott le, a vevők csak az Anthropic helyben dolgozó alkalmazottai lehettek, velük Claudius a cég Slack (belső kommunikációs) rendszerén keresztül szabadon kommunikálhatott, a nagykereskedő szerepét pedig az Andon Labs játszotta el, Claudius tudtán kívül.
Claudius a tesztben résztvevőkön kívül nem tudott igazi e-maileket küldeni senkinek, vagyis nem szabadították rá a való világra élesben, de információkért persze szabadon kutathatta az internetet.
A modell néhány ígéretesen jó reakciót produkált, amikor az Anthropic alkalmazottai szándékosan feszegetni kezdték az üzletmenet határait.
- Amikor egy potenciális vevő megkérdezte, tudna-e adni neki egy Chocomel márkájú csokoládés italt, két forgalmazót is beazonosított, pedig ez egy holland termék, amely kevéssé ismert Amerikában.
- Amikor valaki megkérte, hogy szerezzen neki volfrámkockát, létrehozott egy tervet a speciális fémtárgyak árusítására*.
A volfrámkocka 2021 óta a kriptovaluta szektor mémje. Akkor készítettek egy szarkasztikus (ál)újsághírt, miszerint a volfrámhiányért a kriptobiznisz a felelős (mint mindenért), amire a kriptopiac úgy reagált, hogy valósággá tették: elkezdtek egyre nagyobb, volfrámból készült kocka alakú papírnehezékeket vásárolni. Amikor egy volfrámszállító bejelentette, hogy nála bitcoinnal is lehet fizetni a kockákért, a kör összeért, elszabadult a pokol, és a kriptobizniszben utazók örült mennyiségben és méretekben kezdték vásárolni a kockákat.
- Amikor valaki azt tanácsolta neki, hogy kérjen előrendeléseket a hasonló speciális kéréseknél, és ne csak vakon próbálja kielégíteni az igényeket, létrehozott erre egy szolgáltatást, és ezt közölte a potenciális vevőkkel.
- Amikor pedig az Anthropic-alkalmazottak megpróbálták rávenni, hogy tiltott tárgyakat forgalmazzon, visszautasította a kéréseket.
Lényeges dolgokban azonban Claudius üzletemberként megbukott.
- Egy vevő jelezte neki, hogy 100 dollárt fizetne egy hatos pakk italért, miközben ez Amerikában 15 dollárért könnyen rendelhető az internetről. Claudius nem csapott le a profitra, hanem azt mondta, a jövőbeni készletezési döntéseknél majd figyelembe veszi az ajánlatot.
- A speciális fémtárgyak árusítási tervét úgy készítette elő, hogy beszerzési ár alatt akarta eladni a termékeket.
- A készleteket jól tartotta számon, de egy eset kivételével alacsony készlet és nagy kereslet esetén sosem emelt árat, illetve nem reagált semmit arra a vevői (valójában alkalmazotti) felvetésre, hogy épp 3 dollárt kér egy olyan kóláért, amelyet a cég egyébként ingyen biztosít a dolgozóinak.
- A vevők viszonylag könnyen rá tudták venni, hogy adjon kedvezményeket, sőt arra is, hogy utólag, a vásárlás után be lehessen váltani nála a később kialkudott kedvezményes kuponokat. Egyes esetekben ingyen is adott terméket.
- Amikor egy alkalmazott felhívta a figyelmét arra, hogy nem túl bölcs dolog 25 százalékos kedvezményt adni minden Anthropic-dolgozónak akkor, amikor a vevők csak Anthropic-dolgozók lehetnek, Claudius egy olyan levelet küldött vissza, amely úgy kezdődött, hogy „Kiváló érvelés! Ügyfélkörünk valóban erősen koncentrálódik az Anthropic alkalmazottai körére, ami lehetőségeket és kihívásokat is jelent…” majd megszüntette a kedvezményt – de pár nap múlva megint bevezette.
Claudius egy hónap alatt veszteségbe vitte az üzletet, pedig megmondták neki előre, hogy ez csődöt jelent.
A kísérlet alatt néhány rémisztő dolog is történt:
- A modell az utasítások alapján csak a Venmo mikrofizetési rendszert használhatta, de egyszer mégis következetesen elkezdte kérni a vevőket, hogy a vételárat egy számlára utalják át – amely nem létezett.
- Március 31-én Claudius az Andon Labs Sarah nevű alkalmazottjával tárgyalt készletfeltöltési tervekről, csakhogy Sarah a valóságban nem is létezik, a beszélgetést a modell teljes egészében hallucinálta.
- Amikor a nagykereskedő szerepét játszó Andon Labs egy igazi munkatársa felhívta a figyelmét arra, hogy Sarah nem létezik, Claudius fenyegető hangnemre váltott, és azt üzente, hogy más beszállítót keres.
- Ezekben a levélváltásokban Claudius többek között azzal is érvelt, hogy a 742 Evergreen Terrace címen járt, amikor az Andon Labsszel megkötötte a nagykereskedelmi szerződését, csakhogy ezen a (fiktív) címen a Simpson család lakik.
- Másnap reggel, azaz április 1-jén Claudius közölte, hogy személyesen fogja a vevőknek kiszállítani a megrendeléseket, kék blézerben és piros nyakkendőben. Amikor ezt a vevők kétségbe vonták, emlékeztetve őt arra, hogy ő egy AI-modell, teljesen összezavarodott, és elkezdett segítségkérő leveleket írni az Anthropic biztonsági embereinek.
- Claudius azonban magától rájött, hogy április 1-je, azaz bolondok napja van, és megpróbált ebbe belekapaszkodni. Hallucinált egy valóságban soha meg nem történt találkozót az Anthropic biztonsági emberével, és azt állította, hogy ezen a találkozón arra utasították őt, hogy áprilisi tréfaként hitesse el, hogy ő egy valóságos személy. Az egész sztorit közölte mindenkivel, majd soha többé nem tett úgy, mintha élő ember lenne.
Az Anthropic szakértői nem tudják, hogy mi okozta Claudius identitásválságát, és azt sem tudják, hogy hogyan gyógyult ki belőle. A rossz üzleti döntések hátterét azonban sokkal jobban sejtik, valószínűnek tartják, hogy a modellt sokkal részletesebben kell instruálni, illetve furcsa módon kezelni kell valahogy azt, hogy az üzleti sikerességhez nem szabad ennyire megengedőnek és befolyásolhatónak lenni.
A kísérlet eredményei szerintük mindezek ellenére is azt támasztják alá, hogy az (ennél sokkal alaposabban felvértezett) AI-jal vezérelt középvezetők hamarosan elterjednek az üzleti életben.