Conform unui studiu publicat de McKinsey&Company, reglementările propuse de Uniunea Europeană în ceea ce privește utilizarea inteligenței artificiale (AI) a determinat companiile de top să acorde din ce în ce mai multă atenție modului de utilizare a acestor soluții, cât și riscurilor ce pot apărea.
Studiile arată că majoritatea organizațiilor nu sunt încă pregătite de a se adapta în totalitate la aceste reglementări. În 2020, doar 48% dintre acestea au raportat că au recunoscut riscurile de conformitate cu reglementările și chiar mai puține, 38% au raportat că lucrează activ pentru a le aborda. Proporții mult mai mici dintre companiile chestionate au recunoscut alte riscuri flagrante, cum ar fi cele legate de reputație, confidențialitate și corectitudine.
Utilizarea inteligenței artificiale reprezintă o oportunitate extraordinară de dezvoltare atât în tehnologie, cât și în societate. Aceasta poate revoluționa modul în care organizațiile creează valoare în industrii, de la asistență medicală, la minerit sau servicii financiare. Companiile care tind spre inovare trebuie să abordeze riscurile tehnologiei, fapt susținut și de faptul că organizațiile cu cele mai mari profituri generate prin intermediul soluțiilor AI sunt mult mai probabil să raporteze că sunt implicate în atenuarea activă a riscurilor.
Deși regulamentul UE nu este încă în vigoare, această direcție oferă o perspectivă clară asupra viitorului, iar organizațiile ce reușesc să se conformeze rapid vor fi cele mai îndreptățite spre succes.
Ce tipuri de sisteme AI intră sub incidența regulamentului UE propus?
Regulamentul împarte sistemele AI în 3 categorii: cu risc inacceptabil, cu risc ridicat și cu risc limitat și minim. Organizațiile pot folosi acest cadru ca punct de plecare în procesul de dezvoltare, având drept exemplu pierderile din cauza inventarului clasificat greșit.
Sistemele AI cu risc inacceptabil includ sisteme subliminale, manipulative sau de exploatare (care provoacă vătămări), sisteme de identificare biometrică în timp real, la distanță (utilizate în spațiile publice pentru aplicarea legii) și toate formele de scoring social sau un tip de tehnologie ce evaluează încrederea unui individ pe baza comportamentului social sau a trăsăturilor de personalitate prezise.
Sistemele AI cu risc ridicat le includ pe cele care evaluează solvabilitatea consumatorilor (ajută la recrutarea sau gestionarea angajaților sau utilizează identificarea biometrică), precum și altele care sunt mai puțin relevante pentru organizații. Conform regulamentului propus, Uniunea Europeană ar revizui și ar putea actualiza anual lista sistemelor incluse în această categorie.
Sistemele AI cu risc limitat și minim includ multe dintre aplicațiile AI utilizate în prezent în industrie, cum ar fi chatboții și gestionarea inventarului bazată pe AI.
Ce cerințe impune reglementarea organizațiilor care utilizează sau furnizează sisteme AI?
Proiectul de regulament propune interzicerea sistemelor din categoria de risc inacceptabil pe teritoriul Uniunii Europene. Totodată, sistemele cu risc ridicat ar fi supuse celui mai mare set de cerințe, inclusiv supravegherea umană, transparența, securitatea cibernetică, managementul riscurilor, calitatea datelor, monitorizarea și obligațiile de raportare.
Sistemele considerate ca prezentând un risc minim ar avea cerințe mult mai puține, în primul rând sub forma unor obligații de transparență, cum ar fi informarea utilizatorilor cu privire la tipul de sistem cu care interacționează, astfel încât să poată lua o decizie în cunoștință de cauză, clarificând dacă un instrument folosește recunoașterea emoțiilor sau cea biometrică și notifică utilizatorii dacă conținutul de imagini, audio sau video a fost generat sau manipulat de AI pentru a-și reprezenta în mod fals conținutul.
Regulamentul afectează doar companiile din UE?
Răspunsul este nu. Regulamentul ar avea o acoperire extrateritorială, ceea ce înseamnă că orice sistem AI care furnizează rezultate în Uniunea Europeană ar fi supus acestuia, indiferent de locul în care se află furnizorul sau utilizatorul.
Ce sancțiuni ar putea impune regulamentul?
O abatere ar putea include amenzi de până la 30 de milioane de euro sau 6% din veniturile globale, ceea ce face sancțiunile și mai mari decât cele suportate de încălcările GDPR. Utilizarea sistemelor interzise și încălcarea prevederilor privind guvernanța datelor atunci când se utilizează sisteme cu risc ridicat vor atrage cele mai mari amenzi potențiale. Toate celelalte încălcări sunt supuse unui maxim de 20 milioane de euro sau 4% din veniturile globale, iar furnizarea de informații incorecte sau înșelătoare către autorități va atrage o sancțiune maximă de 10 milioane de euro sau 2% din veniturile globale.
Cum se pot pregăti organizațiile pentru reglementările UE și cele ce vor urma?
Proiectul de regulament al UE reprezintă doar un pas în ceea ce va deveni un efort global de gestionare a riscurilor asociate inteligenței artificiale. Cu cât organizațiile se adaptează mai repede la această realitate de reglementare, cu atât succesul lor pe termen lung va fi mai pronunțat. Iată câțiva dintre pașii ce pot contribui în această direcție:
- Construirea unui inventar al sistemelor AI și al măsurilor de reducere a riscurilor
- Implementarea evaluărilor de conformitate (documentarea alegerilor, limitări, riscurile pe care le prezintă sistemul, orice măsuri de reducere a riscurilor integrate, etc)
- Constituirea unui raport asupra procesului (audituri de date, evaluarea riscurilor, consultarea cu experți, testare și validare, revizuirea incidentelor similare, măsuri de atenuare, verificări, etc)
- Asigurarea unui comitet interfuncțional dedicat, responsabil de asigurarea conformității cu riscul AI și auditurile independente
Proiectul de reglementări al Uniunii Europene privind inteligența artificială ar trebui să servească drept o alertă că acum este momentul ca organizațiile să asigure procese solide pentru a gestiona riscurile generate și pentru a respecta reglementările existente și viitoare. În loc să reducă dezvoltarea AI, organizațiile determinate vor crea, în schimb, un cadru pentru managementul riscurilor și a conformității, care le va permite să continue să inoveze și să implementeze soluții de inteligență artificială.