Prof. univ. dr. Ovidiu Predescu
- Scurte considerații introductive. Inteligența artificială (IA) este o chestiune care a stârnit și stârnește în continuare discuții pe larg și adesea în contradictoriu. Mai mult, în literatura de specialitate s-a exprimat și punctul de vedere conform căruia „discuția despre viitorul vieții cu IA este cea mai importantă dezbatere a epocii noastre”. Aceasta este semnificativă „atât pentru urgența, cât și pentru impactul ei (…) În comparație cu problemele legate de război, terorism, șomaj, sărăcie, migrație și nedreptatea socială, apariția IA va avea un impact global mai mare…”. Însă drumul către IA poate avea un final pozitiv ori, dimpotrivă, unul negativ pentru umanitate, în funcție de obiectivele noastre viitoare și de capacitatea noastră de a ști ce dorim să facem cu progresul IA și cum, și cât vrem ca acesta să influențeze statutul nostru de om. Sau ce va însemna să fii om mâine, când dezvoltarea tehnologiei IA ne va modifica tot mai mult viața, incluzând aici și condiția umană? De unde rezultă un alt șir de întrebări dificile privind, de data aceasta, tema obiectivelor umane, care, după părerea noastră, se referă la a trăi cu știința de a ști pentru ce trăiești, în raport cu eventualele obiective ale IA, cum ar fi: „Ar trebui oare să înzestrăm IA cu obiective, și care ar fi acele obiective? Cum putem înzestra IA cu obiective? Cum putem fi siguri că aceste obiective sunt păstrate, chiar dacă IA devine mai deșteaptă? Putem schimba obiectivele unei IA care e mai deșteaptă decât noi? Care sunt obiectivele noastre supreme?”.
Apreciem că, mai înainte de a oferi răspunsuri la aceste întrebări, ar fi nevoie să reflectăm profund asupra principalelor valori ale societății umane, precum și asupra lucrurilor care fac ca viața omului să aibă un sens pentru a fi trăită. Ori altfel spus, cuvântul de ordine pentru a stabili direcția în care vom îndrepta IA în fiecare domeniu de activitate în beneficiul umanității este responsabilitatea.
Totuși, rămâne întrebarea de tipul: constituie un risc existențial mașinile inteligente, dacă luăm în calcul părerea unora că tehnologia IA în curs de a fi creată de om va distruge umanitatea? Un răspuns, pe care îl apreciem ca fiind adecvat, ni-l oferă Jeff Hawkins, neurobiolog și informatician, cel care a formulat o teorie revoluționară a inteligenței referitoare la modul în care înțelegem creierul și viitorul IA. Prin urmare, după ce subliniază că, în prezent, IA nu este inteligentă, Hawkins arată că inteligența robotică este în sine benignă, neprezentând un risc existențial, așa cum mulți cred, dimpotrivă ea „va fi una dintre cele mai benefice tehnologii din câte vom fi creat vreodată”. Totuși, aceasta fiind „o tehnologie de mare forță, riscul rezidă în modalitățile în care oamenii s-ar putea folosi de ea”, în sensul că ea poate fi abuzată, ca orice altă tehnologie, de unii semeni ai noștri, aspect ce îl îngrijorează pe autor mai mult decât IA în sine.
Pe aceleași coordonate de gândire se situează cofondatorul Microsoft Bill Gates, care, în ziua de 21 martie 2023, a publicat o scrisoare cu titlul „Epoca AI a început”, ce conține opiniile sale referitoare la viitorul IA şi evoluția omenirii. Printre altele, în scrisoare Gates relevă preocupările vizând IA, „inclusiv riscul ca oamenii să o utilizeze greșit, precum și posibilitatea unei IA superinteligente, sau „puternice”, care și-ar putea „stabili propriile obiective”, pe măsură ce tehnologia IA se îmbunătățește în timp.
Conform unor documente noi, se preconizează că în anul 2050 inteligența artificială va fi cea care va dicta direcția în care se va îndrepta societatea. Astfel, se anticipează că la acea dată toate statele vor fi guvernate de inteligența artificială. Practic IA pare a fi peste tot, oamenii fiind tot mai dependenți de ea. „Totul devine dată digitală, stocare digitală, exploatare digitală, rezultate digitale”. Iar futurologul Ray Kurzweil afirmă că până în anul 2029 computerele vor egala inteligența umană, iar în anul 2045 „ar putea să fie chiar de un miliard de ori mai inteligente decât toate creierele umane la un loc”. Însă considerăm că o asemenea profeție trebuie privită cu o anumită prudență, atât referitor la proiecția temporală, cât și la faptul că „puterea de calcul nu înseamnă același lucru cu inteligența”.
La polul opus, unul dintre cei mai influenți filosofi contemporani, Noam Chomsky, apreciază că momentul în care IA poate ajunge la nivelul inteligenței umane sau chiar să o depășească „este încă departe”. Acesta a mai arătat că IA nu are nici moralitate, nici gândire rațională, ceea ce „ar putea fi un obstacol de netrecut pentru a imita gândirea umană”.
- Între frica de inteligența artificială și nevoia urgentă de reglementare a acesteia. Având în vedere faptul că dezvoltarea IA prezintă riscuri importante pentru umanitate prin perturbări economice, sociale şi politice, precum şi nevoia urgentă de reglementare a acesteia, mai mulţi experţi în domeniul IA, cărora li sau alăturat personalităţi ca, de pildă, Elon Musk, Steve Wozniak (cofondatorul Apple), scriitorul Yuval Harari, Emad Mostaque (directorul general al Stability AI), au semnat o scrisoare deschisă prin care solicită „o pauză de şase luni în dezvoltarea sistemelor avansate de inteligenţă artificială (mai puternice decât GPT4, n.n.)”, pauză ce ar trebui să fie publică şi verificabilă şi săi includă pe toţi actorii-cheie, iar dacă nu se va reuşi rapid acest lucru atunci guvernele ar trebui să intervină şi să instituie un moratoriu. Cu toate acestea, la mai mult de o lună de la apariția scrisorii respective se remarcă lipsa de reacție a factorului politic, precum și riscul ca aceasta să fie uitată într-un sertar de decident.
Corul neliniștilor – în cea mai mare parte justificate – provocate de amenințările tehnologiei IA aflată în plină dezvoltare și afirmare a fost completat, la 18 aprilie 2023, de analiza asupra riscurilor pentru securitatea națională asociate progresului IA, în special a acelora care privesc dezinformarea, prezentată de șeful Departamentului de telecomunicații al serviciilor secrete britanice (GCHQ), Jeremy Fleming, în fața guvernului britanic. Luând în considerare evaluarea lui Fleming, precum și punctul de vedere exprimat de consiliera științifică principală a guvernului britanic Angela McLean, referitor la „potențialele domenii de aplicare și riscuri” ale IA, executivul britanic a subliniat nevoia păstrării încrederii cetățenilor în legătură cu folosirea IA printr-o reglementare a acesteia „care să ofere oamenilor siguranță, dar care să nu inhibe inovația”.
Dezvoltarea rapidă a IA va influența „fiecare produs al fiecărei companii”, omenirea, ca societate, trebuind să se pregătească și să se adapteze noilor tehnologii, a opinat, la rândul său, Sundar Pichai, CEO-ul Google. În același timp, Pichai a atras atenția cu privire la consecințele negative ale IA, mai ales cu referire la amploarea fenomenului de dezinformare, precum și a știrilor și imaginilor false. Mai mult, s-a pronunțat în favoarea elaborării și adoptării unor acte normative care să sancționeze abuzurile în domeniul IA. Deopotrivă, a mai menționat nevoia negocierii și a încheierii unor tratate internaționale pentru a face IA sigură pentru lume, precum și a unor reguli care „se aliniază cu valorile umane, inclusiv cu moralitatea”.
Pe lângă cele enumerate mai înainte, temeri în rândul populației se manifestă tot mai des în legătură cu apariția rapidă a chatbot-urilor ca integrări în tehnologia emergentă și societate. Astfel, rezultatele unui sondaj din Japonia, lansat pe 30 aprilie 2023, referitor la utilizarea pe scară largă a IA au revelat că 69,4% dintre japonezii chestionați doresc o reglementare mai strictă în dezvoltarea IA.
Ca un corolar la cele de mai sus este editorialul publicat în The Economist de celebrul istoric și filosof Yuval Noah Harari, autorul cunoscutelor volume Sapiens. Scurtă istorie a omenirii, Homo deus. Scurtă istorie a viitorului, 21 de lecții pentru secolul XXI. „Calculatoarele care spun povești vor schimba cursul istoriei omenirii”, ne spune acesta, aducând în sprijinul afirmației sale o serie de argumente puternice și relevante. Așadar, după ce arată că frica de IA a marcat omenirea încă de la începutul erei computerelor, Harari susține că, în ultima perioadă, „IA a dobândit niște abilități remarcabile de a manipula și de a genera limbaj, fie că este vorba de cuvinte, sunete sau imagini. IA a spart astfel sistemul de operare al civilizației noastre”. Ne găsim, așadar, în fața unor instrumente noi ale IA care, din punctul nostru de vedere, în lipsa unor reglementări specifice fundamentate pe o adevărată și nouă evaluare juridică privind, în primul rând, dezvoltarea și utilizarea IA în condiții de siguranță și în folosul speciei umane, pot amenința supraviețuirea civilizației noastre. Plecând de la ideea că „limbajul este materialul din care este făcută aproape toată cultura umană”, Harari ridică o întrebare pe care o apreciem ca fundamentală pentru anii care vor urma, și anume: „Ce s-ar întâmpla odată ce o inteligență non-umană va deveni mai bună decât omul mediu la a spune povești, a compune melodii, a desena imagini și a scrie legi și scripturi?”. În editorialul său Harari prezintă o serie de scenarii posibile în legătură cu impactul pe care IA, concepută și dirijată să producă „în masă conținut politic, știri false și scripturi pentru noi culte”, îl va avea asupra unor importante sfere de activitate umană. Și dă ca exemplu, printre multe altele, viitoarea cursă prezidențială care va avea loc în SUA în anul 2024. Simultan ne spune că scăparea de sub control a IA poate avea ca efect un „potențial sfârșit al istoriei umane. Nu sfârșitul istoriei, ci doar sfârșitul părții sale dominate de oameni”.
După care lansează o nouă și provocatoare întrebare: „Ce se va întâmpla cu cursul istoriei atunci când IA va prelua cultura și va începe să producă povești, melodii, legi și religii?”. Pentru ca apoi să afirme: „Instrumentele anterioare, cum ar fi presa tipărită și radioul, au ajutat la răspândirea ideilor culturale ale oamenilor, dar nu au creat niciodată idei culturale noi și proprii. IA este fundamental diferită. IA poate crea idei complet noi, o cultură complet nouă”.
Inteligența artificială nereglementată sau reglementată superficial poate fi, în viitorul apropiat, „o nouă armă de distrugere în masă care poate anihila lumea noastră mentală și socială”, dacă este lăsată să pătrundă în intimitatea noastră și să ne influențeze gândurile, mentalitățile, comportamentul și acțiunile. Este, în opinia noastră, ideea principală ce se degajă din cele înfățișate de Harari în editorialul său. Așa cum din 1945 ordinea internațională a trebuit să fie adaptată la particularitățile tehnologiei nucleare pentru a proteja umanitatea de extincție și pentru a ne asigura că aceasta este folosită pentru binele oamenilor (de exemplu, pentru a produce energie ieftină), tot așa, ne spune Harari, acum este nevoie rapid de a reglementa instrumentele IA, deoarece aceasta „poate crea IA exponențial mai puternice. În consecință, o primă acțiune capitală în această direcție este să cerem verificări riguroase de siguranță înainte ca instrumentele puternice ale IA să fie lansate în domeniul public (…) Ar trebui să punem capăt implementării iresponsabile a instrumentelor de inteligență artificială în sfera publică și să reglementăm inteligența artificială înainte ca ea să ne reglementeze pe noi. Iar prima reglementare (…) este să impunem obligativitatea ca IA să dezvăluie faptul că este o IA. Dacă am o conversație cu cineva și nu pot spune dacă este un om sau o IA – acesta este sfârșitul democrației”.
În ceea ce ne privește, ca o concluzie la cele relevate mai înainte, apreciem că pe lângă cercetările tehnice în siguranţa IA ce vizează atât funcţionarea aşa cum trebuie a maşinilor în mod independent, cât şi colaborarea eficientă cu specialiştii care le controlează (aceste cercetări cuprind patru mari domenii: verificare, validare, securitate şi control), este imperios necesară o reglementare la nivel naţional, regional (spre exemplu, unional–european) şi internaţional a domeniului IA în folosul speciei umane, şi nu invers.