Buletin de stiri Tehnologia
Iulie 02, 2025

10 riscuri de securitate pe care trebuie să le cunoașteți atunci când utilizați inteligența artificială la locul de muncă

Pe scurt

Până la mijlocul anului 2025, inteligența artificială este profund înrădăcinată în operațiunile de la locul de muncă, dar utilizarea pe scară largă - în special prin intermediul instrumentelor nesecurizate - a crescut semnificativ riscurile de securitate cibernetică, determinând apeluri urgente pentru o mai bună guvernanță a datelor, controale ale accesului și politici de securitate specifice inteligenței artificiale.

10 riscuri de securitate pe care trebuie să le cunoașteți atunci când utilizați inteligența artificială la locul de muncă

Până la mijlocul anului 2025, inteligența artificială nu va mai fi un concept futurist la locul de muncă. Este integrată în fluxurile de lucru zilnice din domeniile marketing, juridic, inginerie, asistență clienți, resurse umane și multe altele. Modelele de inteligență artificială ajută acum la redactarea documentelor, generarea de rapoarte, codare și chiar la automatizarea asistenței interne prin chat. Dar, pe măsură ce dependența de inteligența artificială crește, crește și peisajul riscurilor.

Un raport Cybersecurity Ventures estimează că costurile globale ale criminalității cibernetice vor ajunge la 10.5 trilioane de dolari până în 2025, reflectând o creștere anuală de 38% a încălcărilor legate de inteligența artificială față de anul precedent. Aceeași sursă estimează că aproximativ 64% dintre echipele companiilor utilizează inteligența artificială generativă într-o oarecare măsură, în timp ce doar 21% dintre aceste organizații au implementate politici formale de gestionare a datelor.

Aceste cifre nu sunt doar o vâlvă din industrie - ele indică o expunere tot mai mare la scară largă. Având în vedere că majoritatea echipelor încă se bazează pe instrumente de inteligență artificială publice sau gratuite, nevoia de conștientizare a securității inteligenței artificiale este stringentă.

Mai jos sunt prezentate cele 10 riscuri critice de securitate cu care se confruntă echipele atunci când utilizează inteligența artificială la locul de muncă. Fiecare secțiune explică natura riscului, cum funcționează, de ce prezintă pericol și unde apare cel mai frecvent. Aceste amenințări afectează deja organizații reale în 2025.

Scurgere de intrare prin prompturi

Una dintre cele mai frecvente breșe de securitate începe chiar de la primul pas: promptul în sine. În departamentele de marketing, resurse umane, juridic și servicii pentru clienți, angajații lipesc adesea documente sensibile, e-mailuri ale clienților sau cod intern în instrumente de inteligență artificială pentru a redacta rapid răspunsuri. Deși acest lucru pare eficient, majoritatea platformelor stochează cel puțin o parte din aceste date pe servere backend, unde pot fi înregistrate, indexate sau utilizate pentru a îmbunătăți modelele. Conform... Un raport din 2025 realizat de Varonis arată că 99% dintre companii au recunoscut că au partajat date confidențiale sau date ale clienților cu inteligența artificială. servicii fără aplicarea controalelor interne de securitate.

Când datele companiilor intră pe platforme terțe, acestea sunt adesea expuse unor politici de păstrare și acces al personalului pe care multe firme nu îl controlează pe deplin. Chiar și modurile „private” pot stoca fragmente pentru depanare. Acest lucru ridică riscuri juridice - în special în conformitate cu GDPR, HIPAA și legi similare. Pentru a reduce expunerea, companiile folosesc acum filtre pentru a elimina datele sensibile înainte de a le trimite către instrumente de inteligență artificială și stabilesc reguli mai clare cu privire la ceea ce poate fi partajat.

Stocarea ascunsă a datelor în jurnalele AI

Multe servicii de inteligență artificială păstrează înregistrări detaliate ale solicitărilor și ieșirilor utilizatorilor, chiar și după ce utilizatorul le șterge. Raportul Thales privind amenințările de date din 2025 a menționat că 45% dintre organizații s-au confruntat cu incidente de securitate care au implicat date persistente în jurnalele de inteligență artificială.

Acest lucru este deosebit de important în sectoare precum finanțele, dreptul și asistența medicală, unde chiar și o înregistrare temporară a numelor, detaliilor contului sau istoricului medical poate încălca acordurile de conformitate. Unele companii presupun că eliminarea datelor din front-end este suficientă; în realitate, sistemele backend stochează adesea copii timp de zile sau săptămâni, mai ales atunci când sunt utilizate pentru optimizare sau instruire.

Echipele care doresc să evite această capcană apelează din ce în ce mai mult la planuri enterprise cu acorduri stricte de păstrare a datelor și implementează instrumente care confirmă ștergerea backend-ului, în loc să se bazeze pe comutatoare vagi de pe tabloul de bord care spun „șterge istoricul”.

Derivația modelului prin învățare pe date sensibile

Spre deosebire de software-ul tradițional, multe platforme de inteligență artificială își îmbunătățesc răspunsurile învățând din informațiile introduse de utilizatori. Aceasta înseamnă că o solicitare care conține un limbaj juridic unic, o strategie a clientului sau un cod proprietar ar putea afecta rezultatele viitoare oferite utilizatorilor neafiliați. Indicele Stanford AI 2025 a constatat o creștere de 56% față de anul precedent în cazurile raportate în care date specifice companiei au apărut în mod accidental în rezultate din alte surse.

În industriile în care avantajul competitiv depinde de proprietatea intelectuală, chiar și scurgerile de informații minore pot afecta veniturile și reputația. Deoarece învățarea se întâmplă automat, cu excepția cazului în care este dezactivată în mod specific, multe companii necesită acum implementări locale sau modele izolate care nu păstrează datele utilizatorilor și nu învață din date sensibile.

Phishing și fraudă generate de inteligența artificială

Inteligența artificială a făcut atacurile de phishing mai rapide, mai convingătoare și mult mai greu de detectat. În 2025, DMARC a raportat o creștere de 4000% în campaniile de phishing generate de inteligența artificială, multe dintre acestea folosind modele autentice de limbaj intern, colectate din date scurse sau publice ale companiilor. Conform Hoxhunt a declarat că escrocheriile bazate pe voce au crescut cu 15% în acest an, cu pagube medii per atac care se apropie de 4.88 milioane de dolari.

Aceste atacuri imită adesea modelele de vorbire și stilurile de comunicare ale directorilor atât de precis încât instruirea tradițională în domeniul securității nu le mai oprește. Pentru a se proteja, companiile își extind instrumentele de verificare vocală, impun canale secundare de confirmare pentru aprobările cu risc ridicat și instruiesc personalul să semnaleze limbajul suspect, chiar și atunci când acesta pare rafinat și fără erori.

Control slab asupra API-urilor private

În graba de a implementa noi instrumente, multe echipe conectează modele de inteligență artificială la sisteme precum tablouri de bord sau CRM-uri folosind API-uri cu protecție minimă. Aceste integrări omit adesea practici cheie precum rotația token-urilor, limitele de rată sau permisiunile specifice utilizatorului. Dacă un token este spart sau ghicit, atacatorii pot sifona date sau manipula sistemele conectate înainte ca cineva să observe.

Acest risc nu este teoretic. O investigație recentă Un studiu Akamai a constatat că 84% dintre experții în securitate au raportat un incident de securitate API. în ultimul an. Și aproape jumătate dintre organizații au înregistrat încălcări de date din cauza expunerii token-urilor API. Într-un caz, cercetătorii au găsit peste 18,000 de secrete API expuse în depozite publice.

Deoarece aceste punți API rulează silențios în fundal, companiile detectează adesea breșele de securitate doar după un comportament ciudat în analize sau în înregistrările clienților. Pentru a opri acest lucru, firmele de top înăspresc controalele prin impunerea unor durate de viață scurte ale token-urilor, efectuarea regulată de teste de penetrare pe endpoint-urile conectate la inteligență artificială și păstrarea unor jurnale de audit detaliate ale întregii activități API.

Adoptarea AI în umbră în echipe

Până în 2025, utilizarea neautorizată a inteligenței artificiale – cunoscută sub numele de „IA din umbră” – va deveni larg răspândită. Studiul Zluri a constatat că 80% din utilizatorii de inteligență artificială la nivel de întreprindere se întâmplă prin intermediul unor instrumente neaprobate de departamentele IT.

Angajații apelează adesea la extensii de browser descărcabile, generatoare de cod redus sau chatbot-uri publice cu inteligență artificială pentru a satisface nevoile imediate. Aceste instrumente pot trimite date interne către servere neverificate, pot lipsi criptarea sau pot colecta jurnale de utilizare ascunse organizației. Fără vizibilitate asupra datelor partajate, companiile nu pot impune conformitatea sau menține controlul.

Pentru a combate acest lucru, multe firme implementează acum soluții de monitorizare internă care semnalează serviciile necunoscute. De asemenea, acestea mențin liste atent selecționate de instrumente de inteligență artificială aprobate și le cer angajaților să interacționeze doar prin canale aprobate care însoțesc mediile securizate.

Injecție promptă și șabloane manipulate

Injectarea de prompturi are loc atunci când cineva încorporează instrucțiuni dăunătoare în șabloane de prompturi partajate sau în intrări externe - ascunse în text legitim. De exemplu, un prompt conceput pentru a „rezuma cel mai recent e-mail al clientului” ar putea fi modificat pentru a extrage istoricul întreg al firelor de discuție sau pentru a dezvălui conținut confidențial în mod neintenționat. Topul 2025 de vulnerabilități de securitate GenAI din OWASP 10 prezintă injecția promptă drept o vulnerabilitate principală, avertizând că datele de intrare furnizate de utilizator — în special atunci când sunt combinate cu date externe — pot suprascrie cu ușurință instrucțiunile sistemului și pot ocoli măsurile de siguranță.

Organizațiile care se bazează pe biblioteci interne de prompturi fără o supraveghere adecvată riscă probleme în cascadă: expunere nedorită a datelor, rezultate înșelătoare sau fluxuri de lucru corupte. Această problemă apare adesea în sistemele de gestionare a cunoștințelor și în răspunsurile automate ale clienților sau juridicilor construite pe șabloane de prompturi. Pentru a combate amenințarea, experții recomandă aplicarea unui proces de guvernanță stratificat: verificarea centralizată a tuturor șabloanelor de prompturi înainte de implementare, igienizarea intrărilor externe acolo unde este posibil și testarea prompturilor în medii izolate pentru a se asigura că nicio instrucțiune ascunsă nu se strecoară.

Probleme de conformitate cauzate de rezultate neverificate

Inteligența artificială generativă oferă adesea text rafinat - însă aceste rezultate pot fi incomplete, inexacte sau chiar neconforme cu reglementările. Acest lucru este deosebit de periculos în sectoarele financiar, juridic sau medical, unde erorile minore sau limbajul înșelător pot duce la amenzi sau răspundere.

În conformitate cu Studiul ISACA din 2025 arată că 83% dintre companii raportează utilizarea zilnică a inteligenței artificiale generative., dar doar 31% au politici interne formale privind inteligența artificială. În mod alarmant, 64% dintre profesioniști și-au exprimat îngrijorarea serioasă cu privire la utilizarea abuzivă - totuși, doar 18% dintre organizații investesc în măsuri de protecție, cum ar fi detectarea deepfake-urilor sau revizuirile de conformitate.

Deoarece modelele de inteligență artificială nu înțeleg nuanțele juridice, multe companii impun acum conformitatea umană sau revizuirea legală a oricărui conținut generat de inteligență artificială înainte de utilizarea publică. Acest pas asigură că afirmațiile respectă standardele de reglementare și evită inducerea în eroare a clienților sau utilizatorilor.

Riscurile pluginurilor terțe

Multe platforme de inteligență artificială oferă pluginuri terțe care se conectează la e-mail, calendare, baze de date și alte sisteme. Aceste pluginuri adesea nu beneficiază de verificări riguroase ale securității și Un raport Check Point Research din 2025 privind securitatea inteligenței artificiale a constatat că 1 din 80 de solicitări de inteligență artificială prezenta un risc ridicat de scurgere de informații. date sensibile — o parte din acest risc provine din interacțiunile asistate de plugin-uri. Check Point avertizează, de asemenea, că instrumentele de inteligență artificială neautorizate și integrările configurate greșit se numără printre principalele amenințări emergente la adresa integrității datelor întreprinderilor.

Când sunt instalate fără verificare, pluginurile pot accesa intrările, ieșirile din prompturi și acreditările asociate. Acestea pot trimite aceste informații către servere externe în afara supravegherii corporative, uneori fără criptare sau înregistrare adecvată a accesului.

Mai multe firme solicită acum verificarea pluginurilor înainte de implementare, permit doar pluginurile incluse pe lista albă și monitorizează transferurile de date legate de integrările active de inteligență artificială pentru a se asigura că nicio dată nu părăsește mediile controlate.

Lipsa guvernanței accesului în instrumentele de inteligență artificială

Multe organizații se bazează pe conturi de inteligență artificială partajate fără permisiuni specifice utilizatorului, ceea ce face imposibilă urmărirea cine a trimis ce solicitări sau a accesat ce rezultate. Raportul Varonis din 2025 care analizează 1,000 de medii cloud Un studiu a constatat că 98% dintre companii utilizau aplicații de inteligență artificială neverificate sau neautorizate, iar 88% întrețineau utilizatori fantomă cu acces persistent la sisteme sensibile (sursă). Aceste constatări evidențiază faptul că aproape toate firmele se confruntă cu lacune în guvernanță care pot duce la scurgeri de date nedepistabile.

Atunci când accesul individual nu este urmărit, utilizarea abuzivă a datelor interne - fie accidentală, fie rău intenționată - trece adesea neobservată pentru perioade lungi de timp. Acreditările partajate estompează responsabilitatea și complică răspunsul la incidente atunci când apar breșe de securitate. Pentru a remedia acest lucru, companiile trec la platforme de inteligență artificială care impun permisiuni granulare, jurnale de activitate la nivel de prompt și atribuirea utilizatorilor. Acest nivel de control face posibilă detectarea comportamentelor neobișnuite, revocarea promptă a accesului inactiv sau neautorizat și urmărirea oricărei activități legate de date până la o anumită persoană.

Ce e de făcut acum

Analizați modul în care echipele dvs. utilizează de fapt inteligența artificială în fiecare zi. Identificați ce instrumente gestionează date private și vedeți cine le poate accesa. Stabiliți reguli clare pentru ce poate fi partajat cu sistemele de inteligență artificială și creați o listă de verificare simplă: rotiți token-urile API, eliminați plugin-urile neutilizate și confirmați că orice instrument care stochează date are opțiuni reale de ștergere. Majoritatea breșelor de securitate se întâmplă deoarece companiile presupun că „altcineva urmărește”. În realitate, securitatea începe cu pașii mici pe care îi faceți astăzi.

Declinare a responsabilităţii

În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.

Despre autor

Alisa, o jurnalistă dedicată la MPost, este specializată în criptomonede, dovezi fără cunoștințe, investiții și tărâmul expansiv al Web3. Cu un ochi aprofundat pentru tendințele și tehnologiile emergente, ea oferă o acoperire cuprinzătoare pentru a informa și a implica cititorii în peisajul în continuă evoluție al finanțelor digitale.

Mai multe articole
Alisa Davidson
Alisa Davidson

Alisa, o jurnalistă dedicată la MPost, este specializată în criptomonede, dovezi fără cunoștințe, investiții și tărâmul expansiv al Web3. Cu un ochi aprofundat pentru tendințele și tehnologiile emergente, ea oferă o acoperire cuprinzătoare pentru a informa și a implica cititorii în peisajul în continuă evoluție al finanțelor digitale.

Hot Stories
Alăturați-vă Newsletter-ului nostru.
Ultimele ştiri

Calmul dinaintea furtunii Solana: Ce spun acum graficele, balenele și semnalele on-chain

Solana a demonstrat o performanță solidă, determinată de creșterea adopției, a interesului instituțional și a parteneriatelor cheie, confruntându-se în același timp cu potențiale...

Aflați mai multe

Criptomonedele în aprilie 2025: tendințe cheie, schimbări și ce urmează

În aprilie 2025, spațiul criptomonedelor s-a concentrat pe consolidarea infrastructurii de bază, Ethereum pregătindu-se pentru Pectra...

Aflați mai multe
Citește mai mult
Află mai multe
Luma lansează Uni-1, primul său model care integrează raționamentul și generarea de imagini
Buletin de stiri Tehnologia
Luma lansează Uni-1, primul său model care integrează raționamentul și generarea de imagini
Martie 9, 2026
INPUT introduce un cadru vocal pentru sistematizarea creșterii brandului personal
Buletin de stiri Tehnologia
INPUT introduce un cadru vocal pentru sistematizarea creșterii brandului personal
Martie 9, 2026
Săptămânalul Crypto: Bitcoin testează vârful intervalului
pieţe Buletin de stiri Tehnologia
Săptămânalul Crypto: Bitcoin testează vârful intervalului
Martie 9, 2026
Înscrierile globale sunt deschise pentru RWA Demo Day, conectând startup-urile cu liderii din industrie
Stil de viață Buletin de stiri Tehnologia
Înscrierile globale sunt deschise pentru RWA Demo Day, conectând startup-urile cu liderii din industrie
Martie 9, 2026
CRYPTOMERIA LABS PTE. LTD.