IMPACTUL INTELIGENȚEI ARTIFICIALE ÎN VIAȚA SOCIALĂ ȘI AFACERI
Luând în considerare premisa că tăvălugul inteligenței artificiale este imposibil de oprit, cu eforturi intergrate atât publice, cât și private, se poate construi un cadru legal apt să mențină noile tehnologii din domeniul IT într-o matcă prietenoasă cu oamenii.
IA este copilul teribil al societății postmoderne, care poate fi educat să servească intereselor generale pe termen lung.
În 2018, Elon Musk atrăgea atenția asupra pericolului dezvoltării inteligenței artificiale nesigure, apreciind că aceasta poate deveni „un dictator nemuritor de care nu vom putea scăpa”[1].
Interesele generale ale societății presupun instituirea unui set de reguli care să granteze că IA este sigură, folositoare oamenilor și, totodată, etică (corectă, nediscriminatorie, morală, justă). Asemenea preocupări – care insistă cu privire la siguranța și moralitatea IA – au început să apară și să se manifeste, dar parcă mai evident din zona organizațiilor private și a oamenilor de știință și mai puțin din partea factorilor statali sau suprastatali.
Astfel, potrivit unui comunicat recent al companiei Microsoft: „Microsoft Corp. și OpenAI, două companii care se gândesc profund la rolul inteligenței artificiale în lume și la modul în care să construiască AI sigură, de încredere și etică, pentru a servi publicul (s.n. – M.A.H.), colaborează să extindă capabilitățile Microsoft Azure în sistemele IA de mari dimensiuni. Prin acest parteneriat, companiile vor accelera progresele înregistrate în inteligența artificială și vor susține eforturile OpenAI de a crea inteligența artificială generală (AGI)”[2].
Dintre oamenii de știință, cu înaltă competență în domeniul IA, îl voi menționa pe M. Tegmark, care face următoarele recomandări pertinente[3]:
- ”O strategie care ne va ajuta pe semne în practic toate provocările legate de IA este aceea de a acționa împreună pentru a ameliora societatea umană înainte ca IA să ia avânt”;
- ”Ar fi bine să ne modernizăm legile înainte ca tehnologia să le facă să devină desuete”;
- ”ar fi bine să cădem de acord măcar asupra câtorva standarde etice de bază, înainte de a pune mașini puternice să învețe aceste standarde”.
Conform unui raport (PwC Sizing the prize) din 2017, care face o analiză a impactului economic al inteligenței artificiale (IA), se apreciază că aceasta va avea un impact uriaș asupra economiei globale până în 2030[4]. Raportul prevede că PIB-ul global, impactul IA asupra economiei lumii ar putea crește cu până la 14% (în 2030), ceea ce înseamnă un plus de 15,7 mii de miliarde de dolari. Cele mai mari beneficii economice obținute de pe urma IA vor fi înregistrate în China (cu o creștere cu 26% a PIB-ului până în 2030) și America de Nord (cu o creștere de 14,5%), echivalentul a 10,7 trilioane de dolari, reprezentând aproximativ 70% din impactul economic global. Astfel: – America de Nord va înregistra la început o creștere mai rapidă a productivității decât China, determinată de deschiderea față de tehnologiile IA și de numărul mai mare de locuri de muncă în care mâna de lucru poate fi înlocuită de tehnologii mai productive; – China va depăși câștigurile la nivelul productivității ale SUA în deceniul următor, după ce va recupera avansul pierdut din cauza lipsei tehnologiei și expertizei necesare; – Europa și economiile dezvoltate din Asia vor beneficia, de asemenea, de câștiguri economice semnificative de pe urma IA (o creștere între 9-12% a PIB-ului până în 2030); – țările în curs de dezvoltare vor înregistra creșteri mai modeste (mai puțin de 6% din PIB) datorită ritmului mult mai scăzut de adoptare a tehnologiilor IA (inclusiv America Latină și Africa)[5]. În cadrul raportului PwC AI Impact Index, au fost identificate trei domenii, în opt sectoare economice, în care IA va avea cel mai mare impact potențial[6]: a. Asistență medicală: diagnosticare bazată pe date, identificarea pandemiilor, diagnosticare bazată pe imagini (radiologie, patologie); b. Industria auto: flote autonome pentru „ride sharing”; mașini inteligente/pilot automat; servicii de predicție și mentenanță autonomă; c. Servicii financiare: planificare financiară personalizată; anti-frauda și spălare de bani; tranzacții automatizate; d. Retail: proiectare personalizată și producție; generare informații despre clienți, inventariere și gestionarea livrărilor; e. Tehnologie, comunicații și divertisment: arhivarea media și căutare, generare de conținut (marketing, film, muzică etc.), marketing personalizat și publicitate; f. Producție: monitorizare îmbunătățită și auto-corecție; optimizarea lanțului de aprovizionare și a producției; producția la cerere; g. Energie: contorizare inteligentă; eficientizarea operațiunilor în rețele şi de stocare; mentenanță inteligentă a infrastructurii; h. Transport și logistică; livrare autonomă: controlul şi decongestionarea traficului, securitate îmbunătățită. Luând în considerare, cel puțin la nivel declarativ, pericolele asociate cu utilizarea pe scară din ce în ce mai largă a inteligenței artificiale, la nivelul UE există, de asemenea, preocupări referitoare la impactul acesteia asupra vieții oamenilor. În JO al UE din 6 decembrie 2018, a fost publicat Avizul CESE, din care spicuim: „Zi de zi, dispozitivele digitale și echipamentele de învățare automată la scară largă sporesc capacitatea algoritmilor de a lucra cu cantități uriașe de date, fiind de așteptat ca această capacitate să crească și mai mult în viitor, datorită „rețelelor de tip neural (utilizate deja, de exemplu, de telefoanele inteligente pentru recunoașterea vizuală a obiectelor, fețelor și imaginilor). Asemenea evoluții transformă modul obișnuit de „învățare” pe care se bazau până acum dispozitivele IA, care nu se mai limitează la învățarea prin extragerea de reguli din date, ci dezvoltă, de asemenea, o capacitate de învățare flexibilă și adaptivă. Acest proces va spori capacitatea IA de a învăța și de a acționa în lumea reală”[7]. |
La 1 martie 2019, Ministerului Comunicațiilor și Societății Informaționale a găzduit, sub egida Președinției României la Consiliul UE, în București, în Palatul Parlamentului, Reuniunea informală a miniștrilor statelor UE din domeniul comunicațiilor. În comunicatul referitor la această întrunie, pe un ton optimist, se arată: „inteligența artificială va contribui semnificativ la crearea unei industrii europene puternice, prin generarea unei creșteri a productivității, a competitivității și a inovării, îmbunătățind în mod semnificativ viața cetățenilor și a companiilor europene”[8].
La 9 aprilie 2019, pe site-ul Reprezentanței Comisiei UE în România apare un material, din cuprinsul căruia redăm următorul fragment: „Inteligența artificială poate aduce beneficii într-o gamă largă de sectoare, cum ar fi asistența medicală, consumul de energie, automobilele, agricultura, schimbările climatice și gestionarea riscurilor financiare. De asemenea, IA poate contribui la detectarea fraudelor și a amenințărilor cibernetice și le permite autorităților de aplicare a legii să combată criminalitatea într-un mod mai eficient. IA aduce însă și noi provocări pentru viitorul locurilor de muncă și ridică probleme juridice și etice.
Abordarea Comisiei este trilaterală: instituie cerințele-cheie pentru o inteligență artificială de încredere (s.n.), demarează o etapă-pilot la scară largă pentru părțile interesate și depune eforturi în vederea ajungerii la un consens internațional în ceea ce privește dezvoltarea unei inteligențe artificiale centrate pe factorul uman (…)
Iar mai departe se arată: ”O inteligență artificială în care să putem avea încredere ar trebui să respecte toate normele aplicabile, precum și o serie de cerințe; listele de evaluare specifice au scopul de a contribui la verificarea aplicării fiecăreia dintre cerințele-cheie:
- Implicare și supraveghere umană: sistemele de IA ar trebui să faciliteze existența unor societăți echitabile prin sprijinirea implicării factorului uman și a respectării drepturile fundamentale, fără să reducă, să limiteze sau să compromită autonomia umană.
- Robustețe și siguranță: o IA în care putem avea încredere presupune ca algoritmii să fie siguri, fiabili și suficient de solizi pentru a face față erorilor sau inconsecvențelor de pe parcursul întregului ciclu de viață al sistemelor de IA.
- Respectarea vieții private și guvernanța datelor: cetățenii ar trebui să dețină controlul deplin asupra propriilor date, care să nu fie utilizate în scopuri prejudiciabile sau discriminatorii.
- Transparență: ar trebui asigurată trasabilitatea sistemelor de IA.
- Diversitate, nediscriminare și echitate: sistemele de IA ar trebui să țină seama de întreaga gamă de abilități, competențe și cerințe din partea factorului uman și să asigure accesibilitatea.
- Bunăstare societală și de mediu: sistemele de IA ar trebui utilizate pentru a accelera schimbările sociale pozitive și pentru a favoriza dezvoltarea durabilă și responsabilitatea ecologică.
- Responsabilitate: ar trebui instituite mecanisme care să asigure responsabilitatea și răspunderea sistemelor de IA și a acțiunilor acestora”[9].
Dintre reperele care pot fi avute în vedere de către factorii politici, în ceea ce privește elaborarea cadrului juridico-instituțional destinat utilizării sigure și etice a IA, cred că PRINCIPIILE CONFERINȚEI IA DE LA ASILOMAR (2017) pot constitui surse importante, respectiv[10]:
- Teme de cercetare
1) Obiectiv de cercetare: Obiectivul cercetării IA trebuie să fie acela de a crea o inteligență benefică, nu una nedirecțională.
2) Finanțarea cercetării: Investițiile IA trebuie însoțite de finanțarea cercetării care să asigure utilizarea benefică a acesteia, incluzând probleme delicate de informatică, științe economice, științe juridice, etică și sociologie, cum ar fi:
- Cum putem face ca sistemele IA din viitor să fie extrem de robuste, așa încât să facă ceea ce vrem, fără erori de funcționare și fără a fi vulnerabile în fața hackerilor?
- Cum ne putem spori prosperitatea prin automatizare, fără a afecta resursele și voința oamenilor?
- Cum putem revizui sistemul nostru juridic pentru a fi mai corect și mai eficient, pentru a păstra ritmul cu IA și a gestiona riscurile asociate cu IA?
- La ce set de valori trebuie aliniată IA și ce statut juridic și etic ar trebui să aibă ?
3) Legătura dinte știință și politică: Trebuie să existe un dialog constructiv și sănătos între cercetătorii IA și oamenii politici.
4) Cultura cercetării: trebuie făurită o cultură a cooperării, încrederii și transparenței în rândul cercetătorilor și dezvoltatorilor IA.
5) Evitarea concurenței neloiale: Echipele care dezvoltă IA trebuie să coopereze activ pentru a împiedica recurgerea la soluții facile care încalcă normele de siguranță.
- Etică și valori
6) Siguranță: Sistemele IA trebuie să fie sigure și protejate în decursul întregului timp de viață al funcționării lor, să poată fi verificate acolo unde sunt aplicabile și unde sunt folosite.
7) Transparență juridică de eșec: Dacă un sistem IA provoacă daune, trebuie să se poată stabili de ce.
8) Transparența juridică: Orice implicare a unui sistem autonom în hotărâri judecătorești trebuie să ofere o explicație satisfăcătoare verificabilă de către o autoritate umană competentă.
9) Responsabilitate: Proiectanții și constructorii sistemelor IA avansate sunt parte interesată în ce privește implicațiile morale ale folosirii, folosirii greșite și acțiunilor acestora, având responsabilitatea de a modifica acele implicații.
10) Alinierea valorilor: Sistemele IA cu un grad înalt de autonomie trebuie proiectate așa încât să poată fi asigurată alinierea obiectivelor și comportamentelor lor cu valori umane pe tot parcursul funcționării acestora.
11) Valorile umane: Sistemele IA trebuie proiectate și acționate așa încât să fie compatibile cu idealurile umane legate de demnitate, drepturi, libertăți și diversitate culturală.
12) Confidențialitate personală: Oamenii trebuie să aibă dreptul de a accesa, gestiona și controla datele pe care le generează, dată fiind capacitatea sistemelor IA de a analiza acele date.
13) Libertate și confidențialitate: Aplicarea IA la datele personale nu trebuie să știrbească libertatea reală sau percepută a oamenilor.
14) Beneficiu colectiv: De tehnologiile IA trebuie să beneficieze cât mai mulți oameni cu putință.
15) Prosperitate partajată: Prosperitatea economică creată de IA trebuie larg partajată, spre beneficiul întregii omeniri.
16) Controlul uman: Oamenii trebuie să aleagă cum și dacă își deleagă deciziile sistemelor IA, pentru îndeplinirea propriilor lor obiective.
17) Anti-subminare: Puterea conferită prin controlul unor sisteme Ia avansate trebuie să respecte și să amelioreze, nu să submineze procesele sociale și civile de care depinde sănătatea societății.
18) Cursa înarmărilor IA: Trebuie evitată o cursă a înarmărilor cu arme automate letale.
- Probleme pe termen lung
19) Avertisment privind capacitățile: Neexistând un consens în această privință, trebuie evitate presupunerile tranșante legate de limitele superioare ale capacităților viitoare IA.
20) Importanță: IA avansată poate reprezenta o profundă schimbare în istoria vieții pe Pământ, astfel că trebuie planificată și gestionată cu atenția și resursele corespunzătoare.
21) Riscuri: Riscurile implicate de sistemele IA, în special cele care pot declanșa catastrofe sau cele care amenință viața, trebuie supuse unor eforturi de prevedere și diminuare pe măsura impactului lor potențial.
22) Autoperfecționarea recursivă: Sistemele IA proiectate pentru a se autoperfecționa sau autoreplica recursiv, cu riscul de a deveni rapid foarte numeroase sau foarte avansate, trebuie supuse unor măsuri stricte de siguranță și control.
23) Binele comun: Super inteligența trebuie dezvoltată pentru a se afla numai în slujba unor idealuri etice larg împărtășite și în beneficiul întregii omeniri, nu doar al unui stat sau al unei organizații.
[1] https://www.youtube.com/watch?v=wlCBMEZn1q8.
[2] Conform directorului general al OpenAI, Sam Altman: „Crearea inteligenței artificiale generale (IAG) va fi cea mai importantă dezvoltare tehnologică din istoria omenirii, cu potențialul de a modela traiectoria omenirii. Misiunea noastră este de a ne asigura că tehnologia IAG aduce beneficii întregii omeniri și că, împreună cu Microsoft, vom pune fundația supercomputerului pe care vom construi IAG”.
[3] M. Tegmark, op. cit., 374.
[4] https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html.
[5] https://www.juridice.ro/523023/studiu-pwc-inteligenta-artificiala-ar-putea-genera-castiguri-de-157-trilioane-de-dolari-la-nivelul-pib-ului-global-prin-cresterea-productivitatii.html.
[6] Idem.
[7] Este vorba despre Avizul Comitetului Economic și Social European privind Comunicarea Comisiei către Parlamentul European, Consiliul European, Consiliu, Comitetul Economic și Social European și Comitetul Regiunilor – Inteligența artificială pentru Europa.
[8] https://www.comunicatii.gov.ro/strategia-digitala-europeana-post-2020-inteligenta-artificiala-si-securitatea-cibernetica-discutate-la-bucuresti-de-ministrii-comunicatiilor-din-ue/, accesat la 16 iulie 2019.
[9] https://ec.europa.eu/romania/news/20190409_inteligenta_artificiala_comisia_europeana_orientari_etica_ro, accesat la 16 iulie 2019.
[10] https://futureoflife.org/ai-principles/?cn-reloaded=1, accesat în 27 iulie 2019.