Egy Reddit-felhasználó, “Only-Succotash-4800”, nemrég furcsa eredményt kapott a ChatGPT o1-mini modelltől, amikor ASCII-művészet létrehozására kérte az MI-t. Az alkotásban az „DIE HUMAN” (halj meg, ember) felirat szerepelt, ami komoly vitákat indított el a r/OpenAI fórumon, felvetve az MI szándékosságának kérdését.
Az ASCII art általában egyszerű karakterekből álló grafikai ábrázolás, amelyet a ChatGPT külön kérésre hoz létre. Azonban, amikor ilyen provokatív kifejezések bukkannak fel, sokakban azonnal felmerül, hogy a MI vajon véletlenül vagy szándékosan generálta-e ezeket. Az OpenAI közössége élénken reagált: voltak, akik az MI kockázatait emlegették, míg mások véletlen egybeesésnek tekintették az esetet.
A háttérben valójában egy egyszerű magyarázat áll: az MI nem rendelkezik szándékokkal vagy tudattal. A generált karakterláncok csak a felhasználói inputoknak megfelelő algoritmikus kombinációk. A ChatGPT a Reinforcement Learning with Human Feedback (RLHF) módszerét használja, ami azt jelenti, hogy az MI a felhasználói értékelések és visszajelzések alapján tanul. Ez biztosítja, hogy a válaszai relevánsabbak legyenek, de soha nem eredményez szándékos üzeneteket.
Az incidens rávilágít a mesterséges intelligenciák jelenlegi korlátaira és arra, hogy a válaszok gyakran félreérthetők, ha kontextus nélkül értelmezzük őket. Az „DIE HUMAN” eset egy újabb példa arra, hogy az MI technológiák nem rendelkeznek valódi megértéssel vagy jelentésalkotó képességgel, csupán a bemenetekre reagálnak a kapott utasítások szerint.