[ro] Note dupa consultarea pe tema Inteligetei Artificiale la Parlamentul European

Am fost plăcut surprins de gradul de interes al Parlamentului European (și în paralel, cum am aflat, și al Comisiei Europene). Intenția clară la nivel european este de a organiza și alimenta dezvoltarea aplicațiilor folosind Inteligență Artificială. În același timp, frecarea internă a propriilor reglementări, în special GDPR (privind intimitate individului) și redefinirea dreptului de proprietate intelectuală în contextul digital, produce și o necesitate a reglementării. Nu ne dorim încă un Cambridge Analytica propulsat de algoritmi mai buni, mai performanți și mai diverși. În același timp, la nivelul comunității europene, dorim să avem acei algoritmi lucrând ”în slujba binelui” (comfort personal, siguranță, productivitate etc). Realitatea este că reglementarea și inovația adesea nu merg mână-n mână. Un exemplu evident ar fi impietarea sau îngreunarea accesului la datele necesare pentru dezvoltarea, calibrarea, antrenarea sau testarea acestor algoritmi, mai ales când acele date sunt de sorginte sau utilizare medicală sau biometrică.

Deși multe dintre perspective expuse în cadrul consultării sunt legitime în sine, niciuna dintre ele nu propune și nu produce vreun cadru conciliant pentru celelalte. Mai mult, majoritatea abordărilor discutate pun, în mod direct sau indirect, povara suplimentară de verificare, auditare și validare a mijloacelor de procesare a datelor tot în seama operatorilor și experților umani, în mod sistematic și incremental suprasolicitați de complexitatea crescând a soluțiilor IT. O clasă de soluții foarte periculoasă pentru inovație, adusă în discuție un participant din Franța, implica auditarea codului care e folosit pentru a procesa date personale de către o autoritate centrală/organism al statului (!) – o astfel de abordare ar ingheta in mod vădit orice inovație, printr-o birocratizare semi-centralizată care acționează ca un bottleneck sau single point of failure.

O opinia fermă și ideologic profundă legată de redefinirea relației dintre societate și inteligentă a fost expusă de P. Dr. Augusto Zampini, reprezentant al Sfântului Scaun, invitat din partea Vaticanului, care a subliniat ca provocarea fundamentală a inteligenței artificiale este definirea ”binelui” (în sensul funcției obiectiv a mașinii) astfel încât să fie aliniat cu noțiunile umane de ”bine”, atât individuale, dar mai ales colective. [cu acordul dumnealui, voi publica ulterior și restul discursului]

O altă perspectivă seminală a venit din partea Prof. Dr. Marius Leordeanu, care a atras atenția asupra lipsei macăr a unei definiții complete și coerente a frontierei între ”automatizare” și ”inteligență artificială”. Neavând un fel de fel bun de a delimita un mecanism inteligent (adaptiv) de unul algoritmic, întrebarea va trebui să aștepte un limba (sau un limbaj) în care să-i poate fi formulat răspunsul. ”Dacă antrenez o rețea neuronală pe niște date sensibile, fac o copie a modelului și ponderilor ei (weights) și apoi adaug o diferență imperceptibilă, care nu schimbă în mod observabil funcționalitatea, se numește că folosesc inteligență artificială? Se mai numește că el vorba de același model care fusese antrenat pe date sensibile?” a fost una dintre problemele date ca exemplul de Leordeanu audienței. Această problemă, în ciuda aparentei ei banalități, nu are o frontieră agreată, definită sau calculabilă – încă – cel puțin nu în absența unei discipline practice și analtice a custodiei datelor și a procesărilor lor, o inter-disciplină aflată la frontiera dintre criptografie, securitate, hardware și arhitectura soluțiilor de calcul.

Opinia pe care am expus-o este că soluția conciliantă la nevoie de fludizare a inovație în paralel cu securizarea modului în care sunt accesate date sensibile trebuie să emane din garanțiile și standardele <tehnice> și <criptografice> oferite de infrastructura și arhitectura de calcul folosită în scopul procesării unor date sensibile (personal, biometrice, medicale etc). Cât despre reglementarea scopului de utilizare al datelor, având o mică inclinație libertariană, voi crede mereu că, o comunitate open source corect motivată și gestionată într-un mod echitabil va produce mereu rezultate mult mai bune decât orice birocrație, fie ea centrală sau distribuită.

Expun mai jos, însoțite de un minim de detaliu tehnic, propunerile mele din cadrul consultației:

  1. Transparenta codului care proceseaza date personale prin inregistrarea lui la o autoritate neutra, a carei singura misiune este sa publice codul peste o perioada suficient de lunga, de ordinul 4-7 ani. Majoritatea codului fiind rescris sau inlocuit mai repede de atat in mod uzual, impactul asupra competitivitatii pietei e redus. In acealasi timp, constinta faptului ca munca lor va fi vizibila si comparata cu a altora din aceeasi perioada reprezinta o motivatie reputationala de a nu cauta eficienta sau avantaje comerciale prin obscurizarea mijloacelor de operare sau de securizare. O alternativa superioara calitativ si tehnic,  este recomandarea de auto-regulare, prin publicarea in avans a dovezilor criptografice ale scrierii codului, urmata de o publicare, la un interval de timp ales de furnizor (2 ani, 5 ani), a codului propriu-zis; nealterarea informatiilor publicate e garantata prin corespondeta criptografica cu dovezile publicate in prima instanta, in mod similar cu o parte din mecanismul blockchain (“Eventually open source code”)
  2. Dreptul si oportunitatea de a invata programare prin _exercitiu practic si verificabil in automatpe platforme disponibile online, compatibil cu device-uri mobile, fara discriminare, garantat pentru copiii Europei si pentru toti cetatenii Europei. Intr-o lume a carei complexitate e creata de algoritmi, privarea populatiei de intelegerea fundamentelor acestei tehnologii produce un clivaj adanc al inegalitatii de oportunitate in munca si in viata. Chiar daca forma echivalente ale acestui drept exista in diferite jurisdictii, acest drept este alienat de facto prin lipsa infrastructurii si prin lipsa personalului educat. Pentru a agrava situatia, personalul didactic este marcat de un bagaj de cunostinta cu un ciclu de reinnoire mult mai mic decat cel al industriei.  (“Digital Technologies in Service of Education”)
  3. Transparenta istoricului de procesare asupra datelor (inclusiv citire, modificare) se poate realiza prin expunerea catre cetateni a istoricului nealterat, integru, de procesare a datelor. Spre exemplu, ar trebui sa pot vedea o lista a tuturor momentelor in care CNP-ul meu a fost citit/folosit de catre aplicatia furnizorului de servicii.
  4. Dreptul la auto-cenzura automata. Cetatenii si utilizatorii trebuie sa aiba autonomia de a defini in mod absolut si inalienabil care e ordinea in care vor primi informatiile din fluxul platoformelor de social media. Astfel, nu Facebook este cel care decide ce informatii vad prima data si in ce ordine, ci eu. Desigur, pentru a sustine modelul de business, furnizorul de servicii de social media are oportunitatea de a interpune mesaje publicitate in fluxul de social media, dar fara a decide sau influenta ordinea mesajelor nepublicitare.
  5. Dreptul la custodia exclusiva si fizica a mijloacelor de acces la datele personale. Singura metoda de a garanta lipsa de abuz de catre un operator a datelor personale este privarea acelui operator de accesul _nemijlocit_ la acele date. In schimb, procesarea datelor respectiva se poate face, utilizand mijloace criptografice publice si disponibile de 20 ani, in urmatorii pasi: 
    1. a) operatorul de date transmite o cerere (semnata criptografic) de procesare asupra datelor catre utilizator, specificand un anumit scop
    2. b) utilizatorul decide individual sau prin delegarea la o metoda automata definite de sine daca accesul va fi acordat 
    3. c) in cazul in care accesul e acordat, utilizatorul alege, in mod aleatoriu, un executor de incredere, care are mijloacele tehnice si criptografice de a garanta Trusted Execution (ca nu se va executa alt cod decat cel aprobat). Comunica acestui executor doar acele date personale necesare procesarii, impreuna cu functia de procesare, semnata criptografic .
    4. d) rezultatul procesarii datelor, semnat criptografic de catre executor, este livrat utilizatorului
    5. e) utilizatorul furnizeaza apoi rezultatul operatorului, care la randul sau poate beneficia de siguranta si increderea unei procesari corecte, bazat pe semnatura criptografica a executorului.
  6. Criptografia audio-vizuala implimentată si ridicarea standardului minim acceptabil de validare a surselor audio-video in mass-media și în jurisprudență. Pentru a limita pe cat posibil impactul unor inregistrari generate folosind inteligenta artificiala (deep fakes, generated reality, video manipulation) sau alte instrumente semi-automate de trucaj, solutia vine tot din domeniul criptografiei, prin semnarea inregistrarii video cu un certificat digital inca de la momentul inregistrarii (aplicarea certificatului digital facandu-se in camera video). Acest proces de semnare digitala produce unul din doua efecte:
    1. a) obliga publicatia sa ofere transparenta asupra felului in care este montat sau editat video-ul original (care poate fi de asemenea facut disponibil); 
    2. b)  semnarea cu certificat digital face posibila observarea rapida a oricarei modificari a inregistrarii, fie ea alterarea unor cadre, stergerea lor sau adaugarea lor; astfel, utilizatorul/spectatorul este informat automat in timpul vizualizarii daca are de-a face cu un trusted video sau untrusted video

Desigur, la nivel european sunt prea mulți actori în joc pentru a putea presupune încă de acum, de la început, direcția finală a acestei povești de dragoste dintre EU și AI, care cu siguranță are un istoric profund, dar în același timp și o reapropiere timidă în ultimii ani.

Nu imi imaginez ca una dintre multele modeste propuneri din cadrul unuia dintre multele astfel consultații sau grupuri de discuție va face diferența. Îmi imaginez însă că, în calitate de cetățean european, am o datorit de a specifica clar și elocvent care este minimul standard al acceptabilități tehnice a industriei pe care o reprezint, către reprezentanții noștri europeni.

Sper ca acest demers să fie unul fructuos, benefic inovației și comunității.

Aștept și eu, cu interes și entuziasm, următorii pași.

Pentru cei care își doresc să contribuie la conversație cu sugestii punctuale pe propunerile tehnice, o pot face direct în copia de pe Google Docs a acestui articol.

DeepVISS.org

Envisage.ai

Knosis.ai

Bogdan Written by: