Wozniak, Musk și cercetători de frunte îndeamnă să se întrerupă IA „scăpată de sub control”.

O nouă scrisoare deschisă semnată de liderii tehnologiei îndeamnă la o pauză de șase luni în dezvoltarea de aplicații avansate de inteligență artificială care pot prezenta „riscuri profunde pentru societate și umanitate”.

Cofondatorul Apple, Steve Wozniak, CEO-ul Tesla Elon Musk, alți directori de tehnologie și mulți academicieni în domeniul inteligenței artificiale au semnat scrisoarea. Îndeamnă la prudență în ceea ce privește AI „emergentă”, mai puternică decât GPT-4. Nu vorbim despre Siri aici (cel puțin nu încă).

Scrisoarea deschisă îndeamnă la pauză pentru o planificare mai atentă a gestionării AI avansate

Scrisoarea a apărut pe site-ul Future of Life Institute și a atras mai mult de 1.123 de semnături până miercuri. Nu necesită o pauză toateDezvoltarea AI, doar „modele cutie neagră imprevizibile din ce în ce mai mari cu capabilități emergente”.

„Solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin șase luni, instruirea sistemelor de inteligență artificială mai puternice decât GPT-4”, se spune. A adăugat că pauza „ar trebui să fie publică și verificabilă”. Și dacă nu se întâmplă rapid, „guvernele ar trebui să intervină și să instituie un moratoriu”.

„Cursa scăpată de control”

Scrisoarea descria dezvoltarea AI ca fiind scăpată de sub control, riscantă, imprevizibilă și chiar dincolo de înțelegerea propriilor creatori, datorită concurenței aprinse. A citat Principiile Asilomar AI dezvoltat la Conferința Beneficial AI din 2017:

După cum se precizează în Principiile Asilomar AI, larg aprobate, Inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui să fie planificată și gestionată cu grijă și resurse pe măsură. Din păcate, acest nivel de planificare și management nu are loc, chiar dacă ultimele luni au văzut laboratoarele de inteligență artificială blocate într-o scădere de control. cursă pentru a dezvolta și a implementa minți digitale din ce în ce mai puternice pe care nimeni – nici măcar creatorii lor – nu le poate înțelege, prezice sau în mod fiabil Control.

Ar trebui să chiar facem asta?

Semnatarii au pus o serie de întrebări pe care le-au subliniat pe oameni ar trebui să întrebați înainte de a continua cu dezvoltarea AI. Scrisoarea se referea, de asemenea, la puterea AI de a elimina multe tipuri de locuri de muncă la diferite niveluri, nu doar sarcini simple și repetitive.

Ar trebui să lăsăm mașinile să ne inunde canalele de informare cu propagandă și neadevăr? Ar trebui să automatizăm toate joburile, inclusiv cele îndeplinite? Ar trebui să dezvoltăm minți non-umane care, în cele din urmă, ar putea să ne depășească numeric, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre? Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei nealeși. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionate.

Chiar și dezvoltatorul botului AI ChatGPT a sugerat acest lucru

Scrisoarea a subliniat că dezvoltatorul ChatGPT OpenAI anterior a remarcat că ar putea deveni necesară o pauză.

Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că „La un moment dat, poate fi important să obținem o evaluare independentă înainte începerea antrenării sistemelor viitoare și pentru eforturile cele mai avansate de a conveni să limiteze rata de creștere a calculelor utilizate pentru crearea de noi modele.” Noi de acord. Acest punct este acum.

Efecte pozitive și riscuri gestionabile

Pe lângă efectele pozitive și riscurile gestionabile menționate mai sus, scopul unei pauze este rezumat în scrisoare astfel:

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pe a face sistemele puternice și de ultimă generație de astăzi mai precise, sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

Și scrisoarea a continuat să descrie garanțiile necesare prin sisteme de guvernanță dezvoltate în cooperare cu factorii de decizie politică.

Dezvoltatorii AI trebuie să colaboreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de guvernare AI. Acestea ar trebui să includă cel puțin: autorități de reglementare noi și capabile dedicate IA; supravegherea și urmărirea sistemelor AI de înaltă capacitate și a unor grupuri mari de capacități de calcul; sisteme de proveniență și de filigranare pentru a ajuta la distingerea reală de cea sintetică și pentru a urmări scurgerile de model; un ecosistem robust de auditare și certificare; răspunderea pentru prejudiciul cauzat de IA; finanțare publică solidă pentru cercetarea tehnică a siguranței AI; și instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca IA.

Sunteți de acord că este necesară o pauză pentru a lua în considerare și a planifica AI avansată? Simțiți-vă liber să comentați mai jos.

Ultima postare pe blog

Tatăl UNIX (și bunicul Mac OS X) Dennis Ritchie trece la 70 de ani
September 11, 2021

Tatăl UNIX (și bunicul Mac OS X) Dennis Ritchie trece la 70 de aniUltimele săptămâni au văzut trecerea unui număr de giganți ai calculelor. Lumea a...

Brevet Troll Lodsys: Nu am avut de ales decât Sue Indie iOS Devs
September 11, 2021

Brevet troll Lodsys - compania care a amenințat că va da în judecată mai multe iOS indie devs vineri pentru utilizare Mecanismul propriu de cumpăra...

Cum să faci jailbreak și să deblochezi iPhone 3G / 3GS folosind Redsn0w [Jailbreak Superguide]
September 11, 2021

Redsn0w de DevTeam vă permite să vă jailbreak dispozitivul iPhone 3G / 3GS, pentru a obține controlul complet asupra acestuia (a se vedea de ce ar ...