E foarte posibil ca oamenii să nu poată anticipa acțiunile la care va recurge o entitate AI superinteligentă, au transmis cercetătorii de la Max-Planck Institute. 

„O mașinărie superinteligentă care controlează lumea sună ca un scenariu SF. Dar există deja astfel de entități care realizează independent sarcini importante, fără ca programatorii să înțeleagă pe deplin cum au învățat să facă asta”, a explicat Manuel Cebrain, coautor al studiului și lider al grupului de cercetare.

Iar întrebarea care apare este - oare va putea omul să anticipeze și să controleze acțiunile unei astfel de mașinării, atunci când aceasta ajunge, practic, să funcționeze pe cont propriu? Răspunsul se leagă inclusiv de Prima Lege a Roboticii a lui Asimov, și de „problema opririi” enunțată de Alan Turing.

Potrivit lui Asimov, de exemplu, un robot nu ar putea răni o ființă umană, dar nu i-ar permite nici să-i facă lui însuși rău. Pentru asta ar trebui să asculte ordine, cu excepția celor care intră în conflict cu prima afirmație, caz în care entitatea ar trebui să se protejeze pe sine.

Cercetătorii au explorat două modalități diferite de a controla inteligența artificială, prima fiind aceea de a limita accesul entității AI la Internet.

Echipa a explorat și „problema opririi” a lui Alan Turing, concluzionând că un astfel de algoritm ar putea lua în considerare comportamentul inteligenței artificiale, până în punctul în care aceasta ar răni oameni. Problema explorează, de fapt, dacă un program poate fi oprit printr-un algoritm care să-i impună acest lucru sau dacă acesta va continua să ruleze în continuare, din inerție, pe durată nedeterminată.

O mașinărie este pusă în diferite situații pentru a vedea dacă ajunge la anumit concluzii sau dacă devine captivă într-un cerc vicios. Testul poate fi aplicat și roboților mai puțin complecși, dar în cazul inteligenței artificiale acest algoritm este complicat de abilitatea lor de a reține în memorie toate programele computerizate cu care s-au intersectat vreodată.

Dacă inteligența artificială ar fi „educată” folosind legile roboticii, ea ar putea să ajungă la concluzii independente, dar asta nu înseamnă că poate fi și controlată.

„Abilitatea computerelor moderne de a se adapta folosind algoritmi sofisticați de inteligență artificială fac și mai dificile presupunerile referitoare la comportamentul unei entități AI superinteligente”, au precizat cercetătorii.

Aceștia au precizat și că inteligența artificială nu ar trebui să fie creată dacă nu este necesar, pentru că e dificil de mapat cursul evoluției sale potențiale și nu vom fi capabili să limităm capacitățile sale în viitor.

Mai mult, e foarte posibil chiar să nu fim conștienți de momentul în care aceste mașinării superinteligente apar, iar acet lucru probabil că se întâmplă deja pentru că marile companii deja integrează algoritmi AI în contexul business-urilor proprii. 

__________________________________________________________________________________________________

Urmăriți emisiunile preferate pe protvplus.ro:

Share articol: