Az OpenAI új általános célú természetes nyelvi feldolgozási modellje most kezdte meg béta verziójának zárt tesztelését és már az első tesztelők is el vannak ájulva a képességeitől.
A Generatív Pretrained Transformernek, vagy egyszerűen GPT-3 néven ismert szoftver egy olyan eszköz, amellyel szavak, szövegek vagy egyéb adatok sorozatát elemezhetjük, majd kibővítve a tevékenységünket eredeti tartalmakat állíthatunk elő vele, például cikkeket vagy képeket.
A technológia lehetőségeit Manuel Araoz, a Zeppelin Solutions műszaki vezetője mutatta be, aki egy teljes, összetett cikket készített egy hamis kísérletről a népszerű Bitcointalk fórumon. A cikk címe „Az OpenAI GPT-3-a lehet a legnagyobb dolog, a Bitcoin óta” lett.
A GPT-3 egy 746 szavas blogbejegyzést generált, amely leírja, hogyan GPT-3 hogyan volt képes becsapni a Bitcointalk fórum tagjait, elhitetve velük, hogy a kommentjei valódiak.
A szöveg több pontján a GPT-3 leírja a nyelvi előrejelzési modellek számos lehetséges felhasználási lehetőségét is, megjegyezve, hogy ezek felhasználhatók "álhírek", reklám, politika és propaganda célokra".
Néhány apró kérdés kivételével, beleértve egy kihagyott táblázatot és a szövegben hivatkozott hiányzó képernyőképeket, a szöveg gyakorlatilag megkülönböztethetetlen egy valódi személy által írt szövegtől. A szöveg csak egy cím, egy marék címke és az alábbi rövid összefoglaló felhasználásával állították elő:
"Megosztom az OpenAI új nyelvi predikciós modelljének (GPT-3) bétaverziójával kapcsolatos korai kísérleteimet. Elmagyarázom, miért gondolom, hogy a GPT-3 a blockchain technológiával összevethető diszruptív potenciállal rendelkezik."
Az Argentine Computer Scientistnél is kipróbálták a GPT-3-at, javítva vele összetett szövegek érthetőségét, költészetet állítva elő Jose Louis Borges stílusában (természetesen spanyolul), és zenét íratva vele ABC jelöléssel, több más projekt mellett. Hasonló eredményeket ért el Sharif Shameem, a Debuild.co alapítója, aki a GPT-3-al JSX kódot íratott egy webhely elrendezésének alapvető leírásából.
A Generatív Pretrained Transformer legújabb verziója, a GPT-3 úgy tűnik, hogy mindenben és teljes mértékben felülmúlja elődeinek képességeit, hihetetlen 175 milliárd tanulási paraméterrel, amelyek lehetővé teszik, hogy az MI gyakorlatilag bármilyen feladatra képes legyen. Ezzel a GPT-3-t messze a legnagyobb nyelvi modell manapság, egy nagyságrenddel nagyobb, mint a Microsoft 17 milliárd paraméterű Turing-NLG nyelvi modellje.
A GPT-3 API-hoz jelenleg csak meghívással lehet hozzáférni, de van várólista a teljes verzióhoz. Az árképzésről még nem döntöttek.
(Forrás: Decrypt Képek: Unsplash )