AI este un risc de securitate

7 mar. 2026 7 mar. 2026
Agentic AI introduce o „Mare Accelerare a Riscului”, deoarece sistemele autonome funcționează cu viteza mașinii și încredere implicită. Pe măsură ce agenții preiau sarcini îndeplinite în mod tradițional de oameni, controalele moștenite, cum ar fi Firewall-urile aplicațiilor web și permisiunile statice, devin vulnerabilități arhitecturale.
AI este un risc de securitate

Supraviețuirea peisajului amenințărilor bazate pe AI necesită o trecere la un model de securitate dinamic, centrat pe identitate – unul construit pentru a apăra nu doar împotriva hackerului extern, ci și împotriva actorilor de AI de încredere care se află deja în cadrul organizației tale.

Riscul este deja în interior

Cel mai mare risc pentru afacerea ta nu este o exploatare zero-day. Este agentul IA bine autentificat și de înaltă performanță pe care tocmai l-ai implementat.

O instituție financiară importantă a avut recent un semnal de alarmă șocant. Hackerii și-au păcălit botul de servicii pentru clienți IA să efectueze tranzacții neautorizate în valoare de milioane. Incidentul nu a fost cauzat de o încălcare a perimetrului sau de un firewall defect. Acesta a provenit dintr-o guvernanță insuficientă a permisiunilor interne ale AI. Agentul a fost autentificat corespunzător și funcționa în limitele sale – era un adevărat insider de încredere. Problema nu era compromisul extern, ci încrederea excesivă.

Viteza și scalarea schimbă modelul de amenințare

Agentic AI constă în sisteme autonome construite pentru a îndeplini sarcini efectuate în mod tradițional de oameni – dar la o viteză și o scară semnificativ mai mari. Acești agenți pot apela mii de API-uri pe secundă, pot executa o logică complexă în mai mulți pași și pot opera simultan pe sisteme distribuite, adesea cu frecare minimă.

Pentru a se asigura că acești agenți funcționează fără întrerupere, dezvoltatorii le acordă frecvent permisiuni statice largi – rezultând adesea un acces supraprivilegiat. Ceea ce a fost menit să prevină eșecul sarcinii poate crea în schimb o rază mare de explozie neprotejată.

Riscul nu este pur și simplu automatizarea. Este automatizarea combinată cu viteza mașinii și încrederea implicită – caracteristicile definitorii ale „Marii Accelerații a Riscului”.

Când controalele moștenite devin puncte oarbe

Luați în considerare diferența de scară. Un angajat uman ar putea accesa cinci înregistrări într-un minut.

Un agent AI poate interoga 5.000 de puncte finale API în același interval de timp pentru a executa un lanț logic în mai mulți pași. Dacă este manipulat prin injecție promptă – sau dacă este configurat greșit – un agent nu trebuie să se infiltreze prin hackeri. Acesta folosește pur și simplu permisiunile deja acordate.

La scară de mașină, lacunele minore de autorizare pot deveni rapid incidente majore. Apărările tradiționale presupun că activitatea autentificată este legitimă, ceea ce face ca controalele moștenite să fie potențiale puncte de eșec. Acest lucru ridică întrebări presante: Când a fost ultima dată când ați pus la îndoială capacitatea Firewall-ului aplicațiilor web? Sau ați auditat permisiunile din soluția dvs. de gestionare a identității și accesului?

Și cea mai importantă întrebare: Poate securitatea dvs. să distingă între un agent de înaltă performanță și un atac de infiltrare a datelor de mare viteză? Dacă răspunsul este nu, este timpul ca modelul dvs. de securitate să evolueze.

Identitatea ca plan de control

Agenții AI trebuie să fie guvernați cu aceeași supraveghere Zero Trust pe care o aplicăm oamenilor – dacă nu chiar mai mult. Dacă organizația dvs. utilizează AI Agentic fără a reevalua strategia de securitate și guvernanță, expunerea dvs. este deja în creștere.

Produsele şi soluţiile Symantec sunt distribuite în România de compania SolvIT Networks.

Cauți o aplicație software?

Completează formularul și vei fi contactat de unul din consultanții noștri!