Az Apple nagy lépéseket tesz az MI területén, és a jelek szerint egy olyan új MI modellt fejleszt, amely potenciálisan felülmúlhatja az OpenAI GPT-4 modelljének teljesítményét. Ez a fejlesztés a ReALM (Realistic Artificial Language Model) nevet kapta, és ígéretes előrelépést jelent a természetes nyelvű feldolgozás terén.
A VentureBeat által felfedezett kutatási dokumentumban az Apple részletezi, hogy a ReALM modell hogyan képes emberi nyelvet feldolgozni és értelmezni magas szinten, amelyet jelenleg más chatbotok nem képesek elérni. Ez a technológia integrálható lesz a Siri virtuális asszisztensbe, így pontosabb válaszokat adva a felhasználói kérdésekre, és finomabb nyelvi árnyalatok értelmezésére képes lesz.
Az Apple ReALM nem csak verbális kifejezések értelmezésére képes, hanem képes vizuális elemeket is interpretálni. A modell képes a képernyőn megjelenő szöveges leírások alapján rekonstruálni a képernyő vizuális megjelenését, ami a képernyőn látható elemek és azok helyzetének elemzésén alapul. Ez a módszer, amely az adott feladatra finomhangolt nyelvi modellekkel kombinálva, jelentősen túlszárnyalja a hagyományos megközelítéseket, beleértve a GPT-4 nyújtotta képességeket is.
A Cupertino-i cég a WWDC 2024 rendezvényen, júniusban tervezi bemutatni ezen MI képességeket, amely további részletekkel szolgál majd az AI területén tett újításaikról. Az Apple már több MI kutatási papírt is közzétett, amelyek új módszereket ismertetnek a nagy nyelvi modellek tréningjére, ezúttal a szöveges és vizuális információk integrálásával.