Ce metode ar alege inteligenţa artificială să ne suprime, dacă s-ar decide să distrugă omenirea?
Pe măsură ce numeroase personalități din lumea medicală sau IT au lansat o serie de avertismente în legătură cu pericolul utilizării fără control a inteligenței artificiale, jurnaliștii AFP au căutat răspunsuri, cumva morbid, încercând să afle care ar fi metoda pe care ar alege-o AI-ul pentru a scăpa de specia umană…
Teoria ”agrafelor pentru hârtie”
Această ipoteză, inspirată din numeroase filme SF, s-ar produce atunci când maşinile şi-ar vedea capacităţile depăşindu-le pe cele ale oamenilor şi ar scăpa de sub control.
”Începând din momentul în care vom avea maşini care încearcă să supravieţuiască, vom avea probleme”, a declarat cercetătorul canadian Yoshua Bengio, unul dintre ”părinţii” învăţării automate.
Potrivit unei versiuni imaginate de filosoful suedez Nick Bostrom, momentul declanșării unui astfel de proces s-ar produce atunci când maşinile vor putea să fabrice singure alte maşini, provocând astfel o explozie de inteligenţă.
Potrivit ”teoriei agrafelor pentru hârtie”, dacă AI ar avea de exemplu ca scop suprem optimizarea producţiei pentru acest accesoriu de papetărie, ea ar sfârşi prin a acoperi mai întâi Terra, apoi zone tot mai mari din Univers, cu agrafe, a explicat filosoful.
Nick Bostrom este o personalitate deja extrem de controversată, după ce a afirmat că omenirea ar putea fi o simulare informatică şi după ce a susţinut ideo apropiate de teoria socială a eugenismului.
Cu toate acestea, ideile lui despre pericolele generate de AI au o influență ridicată şi i-au inspirat atât pe miliardarul Elon Musk, CEO-ul companiilor Tesla şi SpaceX, cât şi pe astrofizicianul Stephen Hawking.
Terminator
Imaginea androidului răzbunător din filmul Terminator, trimis din viitor de o inteligenţă artificială pentru a anihila orice rezistenţă umană, a reușit să marcheze într-un mod deosebit inconştientul colectiv.
Dar, potrivit experţilor din campania Stop Killer Robots, , aspect menționat într-un raport elaborat în 2021, armele autonome din anii care vor urma nu se vor impune sub această formă.
”Inteligenţa artificială nu va conferi maşinilor dorinţa de a ucide oameni”, a dat asigurări specialista în robotică Kerstin Dautenhahn, de la Universitatea Waterloo din Canada, contactată de AFP.
”Roboţii nu sunt diabolici”, a afirmat cercetătoarea, care a recunoscut totuși posibilitatea ca dezvoltatorii lor i-ar putea programa pentru a face rău.
Arme biologice sau chimice
Un scenariu mai puţin evident prevede că inteligenţa artificială va fi utilizată pentru a crea toxine sau noi virusuri, cu scopul de a le răspândi apoi la nivel mondial.
Cercetătorii dintr-un grup care utilizează AI pentru a descoperi noi medicamente au realizat un experiment pe parcursul căruia au modificat parametrii de funcționare a inteligenței artificiale, care a fost setată să caute molecule nocive omului.
În mai puţin de şase ore, cu ajutorul inteligenței artificiale, s-a reușit generarea a nu mai puțin de 40.000 de agenţi potenţial toxici, conform unui articol publicat în revista Nature Machine Intelligence.
Cu ajutorul acestor tehnologii, cineva ar putea găsi o modalitate pentru a răspândi mai repede o ”otravă” precum antraxul. Însă nu ar fi o ameninţare existenţială, ci doar o armă îngrozitoare, a declarat Joanna Bryson, expertă în AI la Hertie School din Berlin.
Umanitatea, o specie consumată
În mai toate filmele care abordează subiectul unei apocalipse, catastrofa se petrece brusc şi în acelaşi timp peste tot în lume.
Dar dacă omenirea ar dispărea progresiv, fiind înlocuită de maşini? ”În cel mai rău dintre cazuri, specia noastră ar putea să se stingă fără urmaşi”, anticipează filosoful Huw Price într-un videoclip de promovare a Centrului pentru Studierea Riscurilor Existenţiale din cadrul Universităţii Cambridge.
Există totuşi și posibilități mai puțin amenințătoare, în care oameni augmentaţi printr-o tehnologie avansată ar putea să supravieţuiască. ”Specia noastră pur biologică ar sfârşi atunci prin a dispărea”, a declarat acelaşi cercetător.
Care era perspectiva lui Stephen Hawking
În 2014, Stephen Hawking a declarat pentru BBC că specia umană ar putea într-o bună zi să nu mai fie capabilă să rivalizeze cu maşinile şi că acel moment va fi ca ”un clopot de îngropăciune al rasei umane”.
Geoffrey Hinton, un cercetător care încearcă să creeze maşini asemănătoare creierului uman, cel mai recent pentru grupul Google, a evocat în termeni similari anumite ”superinteligenţe” care ar fi superioare oamenilor.
El a afirmat recent pentru postul de televiziune american PBS că este posibil ca ”omenirea să fie doar o fază temporară și pasageră în evoluţia inteligenţei”.