Az OpenAI és a Google DeepMind korábbi és jelenlegi alkalmazottai egy nyílt levélben komoly figyelmeztetést fogalmaztak meg az emberiség számára. Az aláírók, köztük 13 szakember, úgy vélik, hogy további biztonsági intézkedések nélkül a mesterséges intelligencia (MI) fenyegetést jelenthet az emberi létre.
A levél hangsúlyozza, hogy az MI fejlesztőinek erősebb védelmekre van szükségük, hogy szabadon kritizálhassák az új fejlesztéseket, és hogy a közvélemény és a politikai döntéshozók véleménye is figyelembe legyen véve a technológia irányának meghatározásában. „Hisszük, hogy az MI óriási előnyöket hozhat az emberiség számára, de tisztában vagyunk a komoly kockázatokkal is” – áll a dokumentumban. A kockázatok között említik az egyenlőtlenségek mélyülését, az információk manipulálását és az autonóm MI rendszerek feletti ellenőrzés elvesztését.
A levél szerint az MI fejlesztésével foglalkozó vállalatok, beleértve az általános mesterséges intelligenciát (AGI) is, erős anyagi érdekeltséggel bírnak abban, hogy elkerüljék a hatékony felügyeletet. Neel Nanda, a DeepMind kutatója, az egyetlen jelenlegi alkalmazott a levél aláírói között, és támogatja az alkalmazottak jogainak erős védelmét a problémák jelzésére.
Az OpenAI nemrégiben botrányba keveredett, miután alkalmazottai arra kényszerültek, hogy vagy elveszítik részvényeiket, vagy aláírják a hallgatási megállapodásokat. A vállalat később lemondott erről a követelésről, kijelentve, hogy „ez nem tükrözi értékeinket”. Az OpenAI szóvivője elmondta, hogy a cég támogatja a szigorú vitát, és elkötelezett amellett, hogy együttműködjön a kormányokkal és más közösségekkel a felelős MI fejlesztés biztosítása érdekében.
Ezek a figyelmeztetések egy viharos időszakban érkeznek az MI iparág számára, számos botránnyal és belső változással olyan vezető cégeknél, mint az OpenAI. Mindazonáltal a vállalatok ígérik, hogy folytatják az erőfeszítéseiket a technológia biztonságos és felelős fejlesztése érdekében.