Egy éles hangvételű nyílt levélben kutatók, technológusok és közéleti szereplők csoportja azzal vádolja a Sam Altman vezette vállalatot, hogy „Istent játszik” olyan döntésekkel, amelyek az egész társadalmat formálhatják.
„Az OpenAI jelenleg egy zárt ajtók mögött zajló tárgyaláson mindkét oldalon ül” – írják. – „Az emberiség nevében köt megállapodást anélkül, hogy engedné számunkra a szerződés megtekintését, a feltételek megismerését vagy a döntés aláírását.”
A levél aláírói között több ismert név is szerepel: például az „AI keresztapja”, Geoffrey Hinton; a kutató Gary Marcus; és a kulturális ikon Stephen Fry. Több korábbi OpenAI-belsős is csatlakozott, köztük Jacob Hilton alignment-kutató és Helen Toner, a Georgetown Egyetem kutatója, aki szerepet játszott Altman 2023 novemberi – végül sikertelen – menesztésére tett kísérletben.
A levél írói – akik magukat az OpenAI jótékonysági küldetésének kedvezményezettjeinek tekintik – amiatt aggódnak, hogy a cég lényegében a nyilvánosság kizárásával, zárt ajtók mögött köt az emberiség nevében megállapodásokat. Felidézik, hogy az OpenAI alapító dokumentumai jogilag is rögzítik, hogy az AGI-nak a közjót kell szolgálnia, s a vállalat a hírnevét és a megszerzett támogatását is erre építette. Bár a jelenlegi struktúra fontos biztosítékokat tartalmaz – ilyenek a profitplafonok, a nonprofit irányítás a kereskedelmi tevékenység fölött és a küldetés elsőbbségének nyílt vállalása –, a tervezett átszervezés szerintük ezeket gyengítheti vagy megszüntetheti, ezért a közösségnek joga van megismerni a részleteket.
Átláthatóságot kérnek arról, hogy a változások miként érintik az OpenAI jogi és etikai kötelezettségeit. Válaszokat várnak arra, hogy megmarad-e a jogi kötelesség a küldetés profitszempontokkal szembeni elsőbbségére; továbbra is a nonprofit (alapítványi) oldal gyakorolja-e a teljes irányítást; mely nonprofit igazgatók kapnak részesedést az új struktúrában; fennmaradnak-e a profitplafonok és a „plafon feletti” nyereségek az emberiség javára fordítása; az AGI esetleges kereskedelmi hasznosítása nem írja-e felül a nonprofit kontroll ígéretét; illetve megerősítik-e ismét a Charta elveit – köztük azt, hogy ha egy másik felelős szervezet az AGI kifejlesztésének közelébe jut, az OpenAI a versengés helyett hajlandó legyen együttműködni vele. Emellett kérik az OpenAI Global, LLC működési megállapodásának, valamint a potenciális „plafon feletti” profitokra vonatkozó becsléseknek a nyilvánosságra hozatalát (a valódi üzleti titkok megfelelő kitakarásával).
Zárásként hangsúlyozzák: a tét óriási. Az irányításról, a profitelosztásról és az elszámoltathatóságról hozott döntések nemcsak az OpenAI jövőjét, hanem a társadalomét is alakítják. Emlékeztetnek Sam Altman korábbi kijelentésére, miszerint az OpenAI az emberiség felé szeretne elszámoltatható lenni; jelen levelük is ezt az elszámoltatást szolgálja. Bizalomépítő, egyértelmű választ várnak, és együttműködést ajánlanak azért, hogy az AGI valóban mindenki javát szolgálja.
A mostani levél korábbi kampányok folytatása: több aláíró korábban Kalifornia és Delaware főügyészeit is arra kérte, hogy függesszék fel az OpenAI szerkezetátalakítását, mondván, az felvizezné a nonprofit küldetést. Tavaly nyáron pedig jelenlegi és volt alkalmazottak egy másik nyílt levélben már arra figyelmeztettek, hogy a cégnél kifejezetten elriasztják őket attól, hogy nyíltan beszéljenek a technológiai sikerekből fakadó kockázatokról.