Az OpenAI, a ChatGPT-t fejlesztő vállalat, egy új projektet indított „Strawberry” néven, melynek célja a MI érvelési képességeinek jelentős javítása. Ezt a projektet a Microsoft támogatja, és célja, hogy a MI-t sokkal hatékonyabbá tegye a tervezésben és a komplex problémák megoldásában. A „Strawberry” részletei belső dokumentumokból és egy jól informált forrásból származnak, melyeket a Reuters közölt.
A „Strawberry” projekt nem csupán válaszok generálására korlátozódik, hanem lehetővé teszi a MI számára, hogy autonóm módon navigáljon az interneten, mélyreható kutatásokat végezzen. Ez lehetővé tenné a modellek számára, hogy olyan bonyolult problémákkal foglalkozzanak, amelyek hosszú távú tervezést igényelnek, egy képesség, amely jelenleg hiányzik a modellekből. A „Strawberry” egy korábbi projekt, a „Q*” folytatása, amely már bebizonyította fejlett képességeit a tudományos és matematikai kérdések megválaszolásában.
A „Strawberry”-ben alkalmazott „post-training” módszer hasonló a Stanford Egyetem által fejlesztett Self-Taught Reasoner (STaR) technikához, amely lehetővé teszi a MI számára, hogy saját edzési adatait létrehozva folyamatosan javítsa teljesítményét. Ez a folyamat segítheti a modelleket abban, hogy magasabb intelligenciaszintet érjenek el, mint az emberi. Az OpenAI belső dokumentumai szerint a „Strawberry” képes lesz hosszú távú, összetett feladatok elvégzésére, beleértve az autonóm webes kutatásokat és a szoftveralkalmazások fejlesztését.
A kihívások azonban továbbra is jelentősek. A jelenlegi MI modellek képesek sűrű szövegek összefoglalására és elegáns próza megírására gyorsan, de nehézségekbe ütköznek a józan ész problémáinak kezelésében, és néha „hallucinálnak” hamis információkat. A „Strawberry” célja ezeknek a korlátoknak a leküzdése, lehetővé téve a mesterséges intelligencia számára, hogy előre tervezzen és megbízhatóan oldjon meg összetett problémákat. Azonban egy fejlett érvelési képességekkel és magas szintű autonómiával rendelkező MI létrehozása komoly kérdéseket vet fel a biztonság és az irányítás terén.
Ha ezek a modellek kikerülnek az irányítás alól, komoly kockázatot jelenthetnek az emberiségre, mivel képesek lehetnek felügyelet nélkül döntéseket hozni és kiszámíthatatlan következményeket okozni.