„Marele buton roșu” de la Google ucide AI înainte să ne poată ucide
Echipa Google DeepMind a lucrat cu oamenii de știință pentru a crea un mod prin care oamenii pot ucide agenții de inteligență artificială înainte ca aceștia să poată apela asupra noastră.
Este o preocupare pe care o au mulți, deoarece sistemele de IA dezvoltate de giganții tehnologici devin mai inteligenți și mai capabili - dar Google ne-a acoperit.
Google a achiziționat DeepMind pentru aproximativ 400 de milioane de dolari în 2014 și, de atunci, compania a făcut câteva lucruri incredibile cu ea. Cea mai recentă realizare a acestuia a fost învingerea unuia dintre cei mai bine clasați jucători Go, Lee Sedol, cu 4-1 într-un meci de cinci jocuri.
Ceea ce este minunat la tehnologii precum DeepMind este că ei învață mereu și devin mai mari la ceea ce fac. Acum chiar și creatorii lor sunt îngrijorați de ceea ce s-ar putea întâmpla dacă AI ar decide că nu mai vrea să fie controlată de un om.
Într-o lucrare intitulată „Agenți întreruptori în siguranță”, Oamenii de știință de la DeepMind și Universitatea Oxford își dezvăluie planul pentru acest scenariu.
„Dacă un astfel de agent funcționează în timp real sub supraveghere umană, din când în când poate fi necesar ca un operator uman să apese butonul mare roșu pentru a preveni agentului de la continuarea unei secvențe dăunătoare de acțiuni - dăunătoare fie pentru agent, fie pentru mediu - și să-l conducă într-o situație mai sigură ", ziarul explică.
De asemenea, lucrarea confirmă existența unui „cadru” care permite unui om să intervină în siguranță cu un AI, asigurându-se în același timp că AI nu poate învăța cum să le prevină întreruperi.
„Întreruperea sigură poate fi utilă pentru a prelua controlul unui robot care se comportă greșit și poate duce la consecințe ireversibile sau pentru a-l scoate dintr-o situație delicată”, continuă lucrarea.
Deci, practic, trebuie să avem încredere doar că aceste sisteme vor funcționa. Cercetătorii spun că o fac cu unii algoritmi, dar alții trebuie adaptați. Și nu este clar dacă toate „pot fi ușor făcute întrerupibile în siguranță”.
Prin intermediul: Business Insider