Connect with us
Advertisement

Eveniment

Elon Musk, Steve Wozniak și Yuval Harari cer o pauză de șase luni în dezvoltarea AI: ”Prezintă riscuri profunde pentru umanitate”

Publicat

Mai multe personalități mondiale și experți, printre care Elon Musk, Steve Wozniak și Yuval Harari cer o pauză de șase luni în dezvoltarea sistemelor avansate de inteligență artificială.

Aceștia consideră că ainteligența artificială (AI) prezintă “riscuri profunde pentru umanitate” și trebuie reglementată.

Dezvoltatorilor și laboratoarelor de inteligență artificială li se solicită o pauză voluntară și “verificabilă” de șase luni în crearea unor sisteme AI mai puternice decât GPT-4 (abia lansat de Open AI), timp în care ar trebui implementate protocoale de siguranță, semnalează Biziday.

Scrisoarea detaliază, de asemenea, riscurile potențiale pentru societate și civilizație pe care le pot aduce sistemele de inteligență artificială, prin perturbări economice, sociale și politice.

Printre semnatari se numără Elon Musk, cofondatorul Apple, Steve Wozniak, și directorul general al Stability AI, Emad Mostaque.

Textul scrisorii deschise

Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de top.

După cum se precizează în Principiile Asilomar AI, acceptate pe scară largă, inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și gestionată cu grijă și cu resurse pe măsură.

Din păcate, acest nivel de planificare și management nu are loc, iar în ultimele luni laboratoarele de inteligență artificială s-au înscris într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale tot mai puternice pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla într-un mod acceptabil.

Sistemele AI contemporane devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm:

Ar trebui să lăsăm mașinile să ne inunde canalele de informații cu propagandă și neadevăr?

Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune?

Ar trebui să dezvoltăm creiere non-umane care, în cele din urmă, ar putea să ne copleșească, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?

Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile.

Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem.

Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că “La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme.”

Suntem de acord. Acel moment este acum.

Prin urmare, solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin 6 luni, dezvoltarea sistemelor de inteligență artificială mai puternice decât GPT-4.

Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți.

Aceste protocoale ar trebui să asigure că sistemele care aderă la acestea sunt sigure dincolo de orice îndoială rezonabilă.

Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai puternice, imprevizibile, cu capacități emergente.

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale.

Acestea ar trebui să includă cel puțin:

  • noi autorități de reglementare dedicate AI;
  • supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general;
  • sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI;
  • un ecosistem robust de auditare și certificare;
  • stabilirea răspunderii pentru eventuale prejudicii cauzate de AI;
  • finanțare publică solidă pentru cercetarea tehnică a siguranței AI;
  • instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o “vară a inteligenței artificiale” în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta.

Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră. Putem face asta aici și acum. Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă.

Urmăriți Alba24.ro și pe Google News

Comentează

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *







ȘTIREA TA - trimite foto/video la Alba24 prin Facebook, WhatsApp, sau prin formularul online.

Advertisement
Advertisement
Advertisement
Advertisement
Advertisement
Advertisement
Advertisement
Advertisement
Advertisement
Advertisement