Analiza principalelor puncte slabe ale sistemelor AI care folosesc date (precum chatbot-uri sau soluții de sumarizare) și să discutăm despre cum actorii de tip APT pot exploata aceste vulnerabilități prin tehnici avansate, de la atacuri asupra infrastructurii și lanțului de aprovizionare software, până la injectarea de date malițioase (data poisoning). De asemenea, subliniem riscurile asociate confidențialității și respectării GDPR (inclusiv atacurile de tip membership inference) și oferim recomandări privind măsurile de securitate, cum ar fi guvernanța datelor, segmentarea infrastructurii, monitorizarea continuă și best practices în dezvoltarea și administrarea sistemelor AI.
Iată câteva dintre punctele slabe (sau provocări) actuale ale sistemelor care utilizează date (ex: chatbot-uri, soluții de sumarizare) în contextul securității și confidențialității, mai ales când vorbim despre documente acoperite de reglementări precum GDPR:
- Calitatea și proveniența datelor (Data Quality & Data Provenance)
- Modelele AI sunt puternic dependente de datele de antrenare. Dacă seturile de date conțin informații eronate, incomplete sau părtinitoare, deciziile sau răspunsurile generate pot fi la fel de eronate.
- Proveniența datelor (de unde vin, cine le-a colectat, cum au fost curățate/anotate) este uneori neclară, ceea ce face dificilă verificarea conformității cu GDPR sau cu alte reglementări de confidențialitate.
- Accesul neautorizat și scurgerile de date (Data Leaks & Unauthorized Access)
- Infrastructurile care găzduiesc modele AI (cloud, servere on-premises) pot fi vulnerabile la atacuri cibernetice clasice (SQL injection, acces neautorizat, ransomware etc.).
- Dacă date sensibile (inclusiv date cu caracter personal) sunt folosite în antrenamentul modelelor sau trimise către un API terț, există riscul ca acestea să fie expuse în mod neintenționat, încălcând confidențialitatea cerută de GDPR.
- Reconstituirea informației personale (Data Reconstruction & Membership Inference)
- Chiar și atunci când datele sunt aparent „anonimizate“, există tehnici de atac (Membership Inference Attack, Model Inversion Attack) prin care se poate deduce dacă anumite persoane au fost incluse în setul de antrenament sau se pot reconstitui date personale.
- În contextul GDPR, acest aspect este deosebit de critic, deoarece operatorii de date trebuie să asigure faptul că o persoană nu poate fi reidentificată.
- Bias și discriminare
- Modelele AI care rezumă sau furnizează informații pot avea încorporate prejudecăți (bias) din datele de antrenament. Un astfel de bias poate duce la concluzii sau rezumate care favorizează în mod eronat un anumit grup sau care omit informații relevante.
- Pe lângă impactul etic și legal, bias-ul poate expune organizația la riscuri reputaționale și de neconformitate.
- Atacurile de tip „Poisoning“ și „Adversarial“
- Într-un atac de tip „data poisoning“, un actor malițios introduce date corupte/false în setul de antrenament, influențând răspunsurile modelului în direcții dorite de atacator (de ex., un chatbot care își schimbă comportamentul său normal sau devine sursă de dezinformare).
- În atacurile adversariale, se creează intrări special concepute pentru a „păcăli“ modelul (de ex. un text care îl determină să divulge informații confidențiale sau să ofere rezumate înșelătoare).
- Prompt injection & Jailbreaking
- Chatbot-urile bazate pe modele de tip LLM (Large Language Models) pot fi vulnerabile la așa-numitele atacuri de tip „prompt injection“, prin care un utilizator introduce cerințe ascunse sau manipulatoare în interacțiunea cu modelul.
- „Jailbreaking“ se referă la metodele prin care restricțiile impuse unui chatbot (pentru a nu divulga informații sensibile sau pentru a filtra limbajul nepotrivit) pot fi eludate prin formulări creative de prompt-uri.
- Lipsa de trasabilitate și interpretabilitate (Explainability & Traceability)
- Majoritatea modelelor AI (în special rețele neuronale de mari dimensiuni) nu oferă transparență asupra modului în care ajung la o anumită concluzie.
- În context GDPR, persoanele vizate au dreptul să înțeleagă deciziile automate care le privesc; lipsa explicabilității face dificilă demonstrarea conformității, precum și identificarea posibilelor erori.
- Lacune în protecția datelor stocate și transferate (Data Governance)
- Dacă sistemele de tip chatbot/sumarizare folosesc date din multiple surse, este esențial să existe un management clar al drepturilor de acces, clasificare a datelor, criptare și politici de retenție.
- Fără un plan robust de Data Governance, există riscul ca datele să fie stocate și partajate în medii nesigure, încălcând legislația sau regulile interne de securitate.
- Expunerea informațiilor confidențiale în rezultate
- Sistemele de sumarizare sau chatbot-urile pot include din greșeală informații confidențiale (nume, adrese, date financiare) în răspunsurile oferite, dacă setul de date de antrenament sau contextul conține astfel de informații și nu există un filtru adecvat.
- GDPR impune minimizarea datelor și necesită ca operatorii să nu furnizeze mai multe informații decât este nevoie; încălcările de acest tip pot atrage amenzi semnificative.
- Conduită incorectă și phishing social (Social Engineering)
- Chatbot-urile avansate pot fi folosite de atacatori pentru a construi atacuri de tip phishing mult mai convingătoare.
- De asemenea, un chatbot compromis ar putea manipula utilizatorii prin dezinformare sau acces direct la date sensibile.
- Conformitatea juridică și responsabilitatea legală (Compliance & Liability)
- GDPR și alte reglementări (ePrivacy, legislații naționale) impun obligații stricte privind modul în care datele personale sunt colectate, prelucrate, stocate și șterse.
- În cazul unui incident de securitate care implică un sistem AI, devine complicat să stabilești clar responsabilitatea între furnizorul de tehnologie, dezvoltator și organizația care folosește efectiv soluția (mai ales dacă datele sunt gestionate de un cloud provider terț).
Recomandări generale pentru reducerea riscurilor:
- Implementarea unor politici riguroase de guvernanță a datelor (Data Governance): clasificare, criptare, control de acces, protecția confidențialității.
- Mecanisme de audit și monitorizare (logging) a tuturor accesărilor și modificărilor de date și a modului în care modelul este utilizat.
- Instrumente de „explainability“ și de monitorizare a performanței modelului, pentru a detecta deviațiile și potențialele atacuri de tip poisoning.
- Tehnici de anonimizare/ pseudonimizare și evaluări regulate de risc privind reidentificarea persoanelor.
- Stabilirea unor fluxuri clare de conformitate cu GDPR, inclusiv mecanisme de consimțământ explicit, dreptul la ștergerea datelor, dreptul la rectificare etc.
- Sesiuni de training pentru echipele de dezvoltare/operare și pentru utilizatori, astfel încât să înțeleagă riscurile și modurile de exploatare posibile.
Acestea sunt, în linii mari, punctele vulnerabile pe care ar trebui să le abordate în securitatea în domeniul inteligenței artificiale, cu accent pe aspectele legate de date personale și conformitate cu GDPR..
Recomandări minime de securitate și conformitate GDPR pentru chatbot-urile din sectorul public cu acces la baze de date naționale.
Atunci când dezvoltă sau implementează chatbot-uri care accesează baze de date naționale, sisteme interoperabile sau registre cu informații sensibile, instituțiile publice prin furnizorii pe care ii contractează trebuie să acorde o atenție deosebită următoarelor aspecte:
- Clasificarea și nivelul de sensibilitate al datelor
- În cazul bazelor de date naționale (e.g. evidența populației, registrul auto, registrul agricol, PNI, etc.), datele pot conține informații extrem de sensibile despre cetățeni (date personale, informații financiare, date privind sănătatea, etc.).
- Este necesară o clasificare clară a tipurilor de date (de ex. date cu caracter personal, date confidențiale, secrete de serviciu, secrete de stat) și stabilirea procedurilor de manipulare a fiecărei categorii în parte.
- Conformitate legislativă și reglementări speciale
- Pe lângă GDPR, instituțiile publice trebuie să se conformeze și altor reglementări specifice sectorului public (de exemplu, legislația națională privind securitatea cibernetică, legea nr. 190/2018 de aplicare a GDPR în România, reglementări privind datele cu caracter special, etc.).
- Dacă chatbot-ul accesează date din sisteme gestionate de alte instituții (prin interoperabilitate), este necesar un protocol clar de partajare, care să respecte regulile fiecărui sistem sursă.
- Autentificare și autorizare strictă
- Într-un mediu public, unde pot exista mulți actori instituționali, este esențial să existe un mecanism robust de autentificare (preferabil multi-factor) și un control granular al accesului (ABAC – Atribute Based Access Control).
- Chatbot-ul nu trebuie să ofere mai multe informații decât îi este permis, iar accesul său la baze de date trebuie strict limitat la rolul său operațional.
- Audit și trasabilitate
- Orice acces la datele sensibile trebuie înregistrat în jurnale (logs) detaliate: cine, când, ce a accesat și de ce.
- Instituțiile publice sunt supuse adesea controalelor Curții de Conturi sau altor organe de audit; un sistem de logging și monitorizare continuă (de tip SIEM) este esențial pentru a demonstra conformitatea și a investiga rapid un eventual incident.
- Protecția transmiterii și stocării datelor
- Este imperativ ca datele să fie criptate, atât în repaus (at rest) cât și în tranzit (in transit).
- Dacă chatbot-ul folosește infrastructuri cloud sau servere externe, trebuie clarificat unde sunt stocate datele și asigurată conformitatea cu legislația privind localizarea datelor (uneori, datele sensibile trebuie să rămână în spațiul UE).
- Segregarea mediilor și limitarea capacității de „lateral movement”
- Chatbot-ul, chiar dacă are acces la o bază de date națională, ar trebui să fie găzduit într-un mediu segmentat (zonă demilitarizată – DMZ, rețea izolată) pentru a reduce riscul de acces neautorizat la alte sisteme interne ale instituției.
- Orice breșă în chatbot ar trebui să aibă impact minim asupra restului infrastructurii. De exemplu, implementarea principiului Zero Trust și segmentarea rețelei pot limita răspândirea unui atac.
- Controlul asupra datelor furnizate de chatbot
- Chatbot-ul ar putea oferi, din greșeală, date sensibile sau informații care nu ar trebui să fie publice. Este esențial să se implementeze filtre și politici de mascare/anonimizare.
- De exemplu, dacă un utilizator cere date despre o persoană, chatbot-ul trebuie să răspundă doar în limitele legii și să anonimizeze datele care nu sunt relevante sau permise spre divulgare.
- Prevenirea atacurilor de tip injection și a manipulării conținutului (Prompt Injection, Data Poisoning)
- Instituțiile publice trebuie să se asigure că datele folosite pentru antrenarea chatbot-ului sau pentru generarea de răspunsuri nu pot fi corupte sau manipulate de actori externi.
- Mecanisme de validare a intrărilor (input validation) și control al conținutului pot preveni injecții de tip SQL, scripturi malițioase sau date „otrăvite”.
- Managementul furnizorilor și al lanțului de aprovizionare
- Dacă chatbot-ul sau componentele sale sunt dezvoltate/menținute de terți, contractele trebuie să includă clauze stricte privind securitatea și confidențialitatea.
- Efectuarea de audituri periodice sau evaluări de tip penetration testing (inclusiv asupra componentelor terților) ajută la descoperirea vulnerabilităților din timp.
- Plan de răspuns la incidente (Incident Response)
- Este crucial ca instituția să aibă un plan bine pus la punct pentru detectarea, anunțarea și gestionarea incidentelor de securitate.
- Protocolul ar trebui să includă notificarea autorităților competente, respectarea termenelor legale (de exemplu, în cadrul GDPR, notificarea ANSPDCP în termen de 72 de ore, dacă e cazul), precum și comunicarea transparentă cu publicul, acolo unde este necesar.
- Protecția identității funcționarilor și a cetățenilor
- Chatbot-ul poate servi atât cetățeni, cât și funcționari. Este important ca datele de autentificare (login/password) să fie protejate, iar accesul să fie acordat doar în funcție de necesitate.
- Instituțiile care își construiesc chatbot-ul ca interfață pentru multiple servicii publice ar trebui să verifice întotdeauna identitatea utilizatorilor (de ex. prin sistemul eIDAS sau prin alte mecanisme oficiale de e-Identitate).
- Evaluări periodice de impact și revizii de conformitate
- Având în vedere dinamica evoluției tehnologice și faptul că bazele de date pot suferi actualizări, e necesară efectuarea de evaluări periodice de impact asupra protecției datelor (DPIA) și a securității infrastructurii.
- Se recomandă totodată un audit anual sau chiar semestrial al nivelului de securitate, în special acolo unde se gestionează date foarte sensibile.
De exemplu un chatbot performant pus la dispoziție pe o platformă poate fi ținta unei automatizări (script) care să încerce să extragă date în mod abuziv. Acest risc poate fi gestionat printr-o serie de măsuri tehnice și organizatorice, precum controlul de acces, rate limiting, monitorizarea traficului și implementarea unor politici riguroase de securitate și confidențialitate.
Există posibilitatea ca un script sau o unealtă automatizată să fie folosită pentru a interoga în mod repetat un chatbot (chiar unul performant și rapid), cu scopul de a extrage date în mod sistematic. Recomandări:
- Automatizarea accesului
- Un atacator sau chiar un utilizator legitim poate scrie un script (de exemplu, în Python, JavaScript etc.) care să trimită continuu cereri API sau mesaje către chatbot.
- Dacă chatbot-ul nu are implementate limite de rată (rate limiting) sau politici anti-abuz, poate ajunge să răspundă la foarte multe întrebări într-un timp scurt.
- Extragerea în masă a datelor
- Dacă chatbot-ul are acces la baze de date sensibile (de ex., informații personale, date financiare) și nu există controale stricte de confidențialitate sau mecanisme de autentificare/ autorizare pentru a bloca cererile suspecte, atunci un script ar putea interoga gradual sistemul pentru a obține fragmente de informații pe care apoi să le consolideze.
- Această metodă se numește uneori „scraping”, însă, în contextul unui chatbot, devine mai complex din cauza modalității de prezentare a datelor.
- Limitarea capacității de extragere
- Pentru a preveni astfel de scenarii, este esențială implementarea unor mecanisme de securitate și control:
- Rate limiting: Limitarea numărului de cereri per minut/oră de la un anumit IP sau un anumit cont.
- Autentificare și autorizare: Pentru a accesa date sensibile, utilizatorul ar trebui să se logheze și să aibă doar drepturi strict necesare (principiul „celor mai mici privilegii”).
- Mecanisme de detectare a comportamentului anormal: Monitorizarea traficului și a modului în care sunt formulate întrebările. Cererile repetitive, cu pattern-uri de extragere masivă, ar trebui să ridice flaguri de securitate.
- Politici de confidențialitate: Chiar dacă un chatbot este rapid și „inteligent”, el nu trebuie să furnizeze direct date personale identificabile. Se pot aplica tehnici de mascare a datelor sau pot fi afișate doar seturi de date anonimizate/parțiale.
- Pentru a preveni astfel de scenarii, este esențială implementarea unor mecanisme de securitate și control:
- Rolul logging-ului și al monitorizării
- Un sistem de chatbot ce oferă acces la date importante ar trebui să fie integrat cu un serviciu de logare și monitorizare (SIEM), pentru a detecta accesul excesiv și a corela potențiale breșe sau încercări de exfiltrare de date.
- Prin analiza log-urilor se pot identifica tipare neobișnuite (e.g., un singur IP care face mii de cereri într-o perioadă scurtă, întrebări repetitive care sugerează un script automatizat etc.).
- Securitatea la nivel de arhitectură
- Chiar dacă chatbot-ul face interogări asupra unei baze de date, ar trebui aplicate regulile clasice de segmentare. Chatbot-ul nu trebuie să aibă acces complet și nelimitat la toate datele – există riscul ca un actor rău intenționat să exploateze această „fereastră”.
- Arhitectura trebuie gândită astfel încât orice date critice să fie servite printr-un API intermediar, care să implementeze politici de acces, rate limiting, criptare și audit.
Implementatorii/dezvoltatorii ce oferă servicii pentru instituțiile publice trebuie să trateze cu maximă atenție aspectele de confidențialitate și securitate atunci când dezvoltă chatbot-uri care accesează sau procesează date din registre naționale sau din baze de date interconectate. O abordare holistică a securității (de la arhitectură și infrastructură la procese și resurse umane) și respectarea strictă a reglementărilor (inclusiv GDPR) sunt esențiale pentru a proteja cetățenii și pentru a menține încrederea în serviciile publice digitale.

AI chatbot vs Advanced Persistent Threat
Un APT (Advanced Persistent Threat) este un tip de atac cibernetic sofisticat, desfășurat de obicei de actori statali sau de grupuri cu resurse și expertiză semnificative. Scopul principal al unui APT este să obțină acces pe termen lung, să se mențină nedetectat și să exfiltreze date sau să compromită infrastructura țintei. În contextul unui chatbot, iată câteva căi prin care un APT ar putea obține control sau acces:
- Compromiterea infrastructurii / a serverelor pe care rulează chatbot-ul
- Un APT poate exploata vulnerabilități din sistemul de operare, serverul web, bazele de date sau alte componente software din infrastructură.
- Atacurile clasice precum RCE (Remote Code Execution), escaladarea privilegiilor, injecțiile SQL sau o configurare de securitate precară (cloud configurat necorespunzător etc.) pot fi puncte de intrare.
- Atac pe lanțul de aprovizionare (Supply Chain Attack)
- Chatbot-urile complexe folosesc adesea biblioteci open-source, servicii externe de NLP sau framework-uri care vin cu propriile dependințe.
- Un APT poate introduce cod malițios într-o bibliotecă sau un modul utilizat de chatbot, astfel încât atunci când organizația face update, să integreze involuntar „backdoor”-ul.
- Injecție de date și atacuri de tip „data poisoning“
- Dacă chatbot-ul folosește un model antrenat continuu sau își actualizează cunoștințele din diverse surse (de exemplu, date publice, fișiere încărcate de utilizatori), un APT poate introduce date „otrăvite“.
- Aceste date pot conduce la schimbarea comportamentului chatbot-ului (răspunsuri eronate, divulgări de informații confidențiale) sau pot include vectori de atac (scripturi, linkuri malițioase).
- Compromiterea mediului de dezvoltare (Dev Environment)
- APT-urile pot viza direct stațiile de lucru ale dezvoltatorilor, unde se scrie și se testează codul pentru chatbot.
- Prin compromiterea IDE-urilor, repo-urilor (de ex. Git), pipeline-urilor de CI/CD (Continuous Integration / Continuous Deployment), un atacator poate injecta cod malițios chiar înainte ca acesta să ajungă în producție.
- Exploatarea API-urilor sau integrărilor
- Multe chatbot-uri se conectează la servicii terțe (de exemplu, CRM, ERP, platforme de plată) prin API-uri. O vulnerabilitate în aceste integrări poate facilita un punct de intrare pentru un APT.
- Odată obținut acces la un sistem interconectat, un APT se poate deplasa lateral (lateral movement) pentru a compromite componentele ce găzduiesc chatbot-ul.
- Atacuri de tip Social Engineering / Phishing
- Actorii umani implicați în mentenanța și administrarea chatbot-ului pot fi vizați prin mesaje de phishing sau inginerie socială.
- Dacă un administrator își divulgă datele de acces sau rulează un fișier malițios, atacatorul poate obține acces la zona de administrare a chatbot-ului și ulterior la datele acestuia.
- Vulnerabilități ale containerelor și orchestratorilor (Docker, Kubernetes etc.)
- Chatbot-urile moderne sunt adesea rulate în containere (ex. Docker) și gestionate cu orchestratori (ex. Kubernetes).
- Configurări greșite la nivel de Kubernetes (ex. dashboard neprotejat), parole implicite în Docker Registry sau escaladarea privilegiilor prin container pot duce la compromiterea platformei.
- Plug-in-uri sau extensii nesecurizate
- Unele chatbot-uri (mai ales cele de tip LLM) permit utilizatorilor sau dezvoltatorilor să adauge „plug-in”-uri / extensii pentru funcționalități suplimentare.
- Un plugin nesecurizat sau malițios poate oferi unui APT o cale directă pentru a accesa datele sau pentru a executa cod la nivelul aplicației.
Cum se manifestă un APT după compromitere?
- Persistență
- După ce obține acces, un APT își instalează backdoor-uri și persistă prin mecanisme avansate de rootkit sau prin conturi ascunse, pentru a evita detecția și a se putea reconecta chiar dacă o parte din infrastructură este remediată.
- Mișcare laterală
- Atacatorii caută să se extindă dincolo de chatbot (de exemplu, să ajungă la serverele de baze de date, la fișiere sensibile, la datele de utilizator etc.).
- Exfiltrare de date
- Scopul final poate fi sustragerea de date sensibile (de la datele personale protejate de GDPR, până la proprietate intelectuală), colectarea lor și trimiterea către serverele de comandă și control (C&C).
- Camuflare și ștergerea urmelor
- Un APT va încerca să-și șteargă log-urile, să modifice fișiere de sistem și să creeze „log trails” false pentru a întârzia sau împiedica detectarea.
Măsuri de prevenție și bună practică
- Actualizări și patch-uri regulate: Menținerea la zi a sistemului de operare, a serverului de aplicații și a tuturor componentelor folosite (biblioteci open-source, dependințe).
- Monitorizare și detectare anomalii: Implementarea unor soluții de tip SIEM (Security Information and Event Management) și IDS/IPS (Intrusion Detection/Prevention System) care să observe trafic suspect și să alerteze echipa de securitate.
- Segmentare și Zero Trust: Implementarea unei arhitecturi de rețea segmentate și a unui model Zero Trust, astfel încât compromiterea unui segment (ex. chatbot) să nu expună întregul mediu.
- Verificarea rigorilor de securitate în lanțul de aprovizionare: Auditează și evaluează constant furnizorii de software, bibliotecile și serviciile terțe pe care se bazează chatbot-ul.
- Politici stricte de control al accesului: Gestionarea atentă a credențialelor, a privilegiilor și utilizarea autentificării multifactor (MFA) pentru conturile administrative.
- Audit de cod și practici de dezvoltare securizată: Code review, testare de penetrare, analize statice/dinamice de securitate pentru codul sursă al chatbot-ului.
- Training de securitate și conștientizare: Personalul implicat în operarea, dezvoltarea și mentenanța chatbot-ului să fie instruit periodic privind amenințările și tacticile de inginerie socială folosite de APT-uri.
Un APT poate intra într-un chatbot prin multiple vectori de atac, de la exploatarea infrastructurii și a depozitelor de cod, până la manipularea datelor de antrenament și atacuri de tip social engineering. Cheia pentru a preveni și a limita impactul este un mix de bune practici în dezvoltare, configurare și monitorizare continuă, precum și o conștientizare permanentă a amenințărilor de tip avansat.
Resurse Recomandate
- ISO/IEC 27001 – Sistemul de management al securității informației
- Site oficial ISO: https://www.iso.org/isoiec-27001-information-security.html
- Standardul definește cerințele pentru stabilirea, implementarea și menținerea unui sistem de management al securității informației.
- ISO/IEC 27701 – Managementul informațiilor privitoare la confidențialitate (PIMS)
- Site oficial ISO: https://www.iso.org/standard/71670.html
- Extensie a ISO/IEC 27001 și ISO/IEC 27002, oferă îndrumări privind protecția datelor cu caracter personal și ajută la conformitatea cu GDPR.
- Regulamentul General privind Protecția Datelor (GDPR) – (UE) 2016/679
- Text oficial (EUR-Lex): https://eur-lex.europa.eu/eli/reg/2016/679/oj
- Principalul act legislativ european ce reglementează protecția datelor cu caracter personal și confidențialitatea.
- NIST (National Institute of Standards and Technology) – AI Risk Management Framework
- Document: https://doi.org/10.6028/NIST.AI.RMF
- Oferă îndrumări pentru identificarea, evaluarea și gestionarea riscurilor asociate sistemelor de inteligență artificială.
- ENISA (Agenția UE pentru Securitate Cibernetică)
- Publicații și ghiduri: https://www.enisa.europa.eu/publications
- ENISA publică rapoarte, ghiduri și recomandări despre securitate cibernetică, inclusiv despre securitatea sistemelor AI și protecția datelor.
- OWASP (Open Web Application Security Project)
- Proiecte și resurse: https://owasp.org/
- Organizație care oferă topuri de vulnerabilități și bune practici pentru securitatea aplicațiilor web, inclusiv inițiative emergente dedicate securității IA.
- Membership Inference Attacks și Model Inversion în Machine Learning
- „Membership Inference Attacks on Machine Learning: A Survey”: https://arxiv.org/abs/1610.05820
- Articole și studii științifice care explorează modul în care se poate deduce dacă anumiți indivizi au fost incluși în setul de antrenament.
- Data Poisoning și Adversarial Machine Learning
- „Poisoning Attacks against Machine Learning”: https://doi.org/10.1109/EuroSPW.2018.00021
- Resursă care detaliază cum pot fi introduse date malițioase pentru a compromite acuratețea și integritatea modelelor AI.
- Zero Trust Architecture
- Publicație NIST SP 800-207: https://doi.org/10.6028/NIST.SP.800-207
- Document ce descrie principiile și liniile directoare pentru implementarea Zero Trust în infrastructurile IT.
- Site-ul oficial OpenAI (exemplu de infrastructură AI și documentație LLM)
- https://openai.com/
- Oferă informații despre modele de tip large language model, bune practici de integrare și documentație de securitate pentru API-urile lor (ex. ChatGPT).