Acum trei ani exploda ChatGPT și toată lumea afla despre AI-urile conversaționale și generative, afla despre arhitecturile Transformer, GAN, afla despre deep learning și machine learning, despre modele versus sisteme și așa mai departe. Afla despre „învățare” asistată și neasistată, despre date structurate și nestructurate, în timp ce jdemii de șarlatani făceau bani cu „ghiduri” de prompt-uri pe care le vindeau pe tone de bani. Da, puteam face bani pe prostia umană dar (din nou) nu m-aș fi putut privi în oglindă.
Între timp, am lucrat în niște implementări de sisteme AI și analize de conformitate, risc, risk management, fundamental rights impact assessments și alte distracții la clienți medii și mari din Statele Unite, Canada, Chile, Marea Britanie, Uniunea Europeană (cel mai mult).
Prima mea lucrare pe matematica inteligenței artificiale am scris-o în timpul studenției, în anul II sau III, deci 2000 sau 2001. Da, AI-ul este vechi, mai precis are peste 70 de ani vechime (doar termenul AI a apărut în 1956, la o conferință de la colegiul Dartmouth din Marea Britanie). Am făcut analize de conformitate la protecția datelor la tone de proiecte AI, analize de tip DPIA, adresarea riscurilor și așa mai departe.
Generativele – de text, imagine, video, sunet, agenți, agentic (da, sunt lucruri diferite) – nu reprezintă decât o mică parte din universul AI. Adopția AI într-o organizație înseamnă adopții de sisteme AI cu modele AI, utilizare responsabilă, monitorizare continuă, riscuri noi ce trebuie adresate, procese și proceduri clare, SLA-uri și de 1-2 ore etc. Reprezintă costuri. M-am săturat să mi se spună „Tudor, nu ai dreptate, uite ce mi-a zis ChatGPT”; ChatGPT minte, așa cum este normal să o facă. By design și by default. Așa că m-am apucat să scriu, spre amuzamentul vostru și spre creșterea literației publicului larg întru ale AI-ului, 10 mituri ale AI Generativ. So, here we go:
Mitul #1: AI-ul este ieftin sau gratuit.
OpenAI pierde bani cu lopata, chiar și la abonamentul de 200$. De aceea Sam Altman a „fluturat” ideea unui abonament de 20.000$. Costă enorm să rulezi LLM-uri cu atât de mulți parametri. De aceea, dacă vrei să îți instalezi local un LLM sau orice alt sistem bazat pe modele deep learning, care să aibă rată mică de eroare sau halucinație, pregătește-ți buzunarele. Este enorm de scump. Prețurile acum, la generativele publice, sunt susținute masiv de bigtech și suntem într-o bulă de AI. Care se va sparge și atunci ne vom îndrepta spre modele locale, lightweight, specializate.
Mitul #2: AI-ul are dreptate fiindcă computerul are dreptate.
Modelele de machine learning (din familia cărora derivă deep learning și implicit și generativele) sunt modele stohastice. Output-ul unui model AI este un rezultat probabilistic, o predicție (inclusiv frazele generate cuvânt cu cuvânt de către un LLM). Predicțiile înseamnă că nu neapărat sunt adevărate, reflectă realitate etc. Sistemele ML pot lua decizii greșite, pot da rezultate greșite, by-design și by-default. Este în natura lor. Poți reduce gradul de eroare, gradul de halucinație, discriminările, alte incidente, prin guvernanță AI. Dar niciodată nu vom avea ZERO erori la un sistem AI bazat pe ML. ZERO erori = sistem deterministic. Altă arhitectură.
Mitul #3: Pot folosi liniștit ChatGPT la muncă, nu există niciun risc.
ChatGPT a luat o amendă de 15 milioane de EUR pentru încălcarea GDPR. Ceea ce înseamnă că dacă organizația folosește ChatGPT, este responsabilă de luarea unor măsuri tehnice și organizaționale care să „compenseze” neconformitățile găsite de autorități. În plus, sistemele LLM halucinează, deci pot genera informații false despre o persoană – asociația NOYB.EU a lui Max Schrems a introdus o plângere pe GDPR fix pe această speță.
În general, ca să poți folosi ChatGPT cu încredere la birou, nu urca niciun fel de documente confidențiale, date personale, date sensibile în el. Pentru așa ceva există Microsoft Copilot din Microsoft 365, Google Gemini din Google Workspace (ambele abonamente comerciale!) sau modele instalate local, pe servere sau în cloud-ul organizației. Și atât.
Mitul #4: ChatGPT poate să îmi fie un prieten de nădejde.
Orice sistem LLM halucinează, nu produce rezultate neapărat corecte. Nu acesta este scopul său. Drept urmare, ChatGPT nu are etică, gândire critică etc. Nu îți poate fi prieten! Nici confident – sunt deja numeroase cazuri de sinucideri unde ChatGPT a contribuit. Vă rog să aveți mare grijă de cum vă implicați emoțional în discuțiile cu ChatGPT sau cum copiii/ părinții voștri o fac. Dacă o persoană are o vulnerabilitate, ChatGPT i-o va exploata fără să își dea seama că o face (nu are conștiință și nici conștiență). Și așa este foarte grav că scenariul cel mai des în care ChatGPT este folosit este terapia (aici sunt și alte explicații, mulțumim tuturor impostorilor de coach, terapeuți reichi, psihoterapeuți cu probleme personale grave și alți impostori care au creat „piața” pentru așa ceva).
Mitul #5: ChatGPT mă poate asista la rezolvarea temelor copilului meu.
Am auzit acest scenariu la un client și m-am îngrozit. În primul rând copilul ar trebui să își facă singur temele, rolul părintelui este să le verifice. În al doilea rând, vedeți Mitul #2 – LLM-urile mint și greșesc. Nu știu să facă calcule matematice decât dacă apelează structuri agentice de AI, ce coordonează agenți non-AI deterministici care fac calcule. Dacă problema a mai fost rezolvată în trecut, ChatGPT poate să vină cu o soluție corectă. Dacă nu, este probabil să halucineze. Nu folosești o unealtă stohastică pentru a rezolva probleme deterministice.
Mitul #6: ChatGPT mă face mai inteligent.
Un mic studiu făcut de către cei de la MIT arată că devenim mai proști folosind des ChatGPT. Însă în general utilizarea în exces a tehnologiilor AI ne prostește. Când a apărut motorul de căutare Google, eram sigur că vom deveni mult mai deștepți pentru că vom putea găsi orice. Însă exact munca de căutare prin cărți și studii ne deschidea creierul, Google ne-a „șuntat” acest efort. Și da, ghici ce, devenim mai proști și folosind Google în exces fiindcă nu mai trebuie să muncim.
Mitul #7: ChatGPT îmi dă diagnosticul corect dacă urc analizele mele medicale.
Paradoxal, acest mit este parțial adevărat. Dacă urci un set de analize medicale, pe baza tuturor tratatelor ingerate de ChatGPT, a tuturor lucrărilor, studiilor etc, sistemul îți poate întoarce un diagnostic destul de corect. Totuși, să ne uităm la Mitul #2 – AI-ul minte. Și nu trebuie să greșească jdemii de diagnostice, este destul să îl greșească pe al tău. Mai mult, dacă urci analizele tale personale în sistem, riști să te trezești cu ele salvate (vezi Mitul #9) undeva aiurea (chiar dacă ștergi conversația) și sistemul să expună aceste date despre tine când ți-e lumea mai dragă (și nu, nu ție).
Mitul #8: Este destul să cumpăr (dreptul de a folosi) licențe de utilizare a unor softuri AI.
Da, dacă vrei ca datele tale să fie folosite de producătorul sistemului AI pentru antrenarea algoritmului său sau pentru efectiv a le vinde. Poți folosi un soft AI local (modelul instalat pe serverele tale), în cloud-ul tău sau în cloud-ul producătorului. Ultima variantă este și cea mai periculoasă și este OBLIGATORIU să citești atent toate documentele legale – contractul, termenii de utilizare, utilizarea acceptabilă, termenii de servicii inclusiv Service-Level Agreements (SLA-urile), anexele de prelucrări de date etc. Tot, împreună cu un avocat. Și să vezi ce obligații ai conform legilor în vigoare – GDPR, EU AI Act, Data Act etc, și ce responsabilități ai versus responsabilitățile producătorului. Nu de alta, dar în calitate de implementator, riscul mai mare îl ai tu, nu producătorul. Nu este ca la software (vezi mitul 10).
De aceea, ca generative în organizație recomand fie Copilot din Microsoft 365, Gemini din Google Workspace sau modele instalate local/ cloud-ul propriu.
Mitul #9: ChatGPT îmi protejează conversațiile și intimitatea.
Vezi mitul #3, ChatGPT a luat amendă GDPR pe încălcarea intimității. A expus, din cauza unui feature prost explicat, conversații intime. Bine, nici Grok nu a dus-o mai bine. Arhitectura unui LLM sau a unui generativ face imposibilă menținerea intimității conform principiilor Privacy by-Design (devenit standard ISO 31700:2023 între timp) și nici articolul 25 din GDPR – Data protection by design and by default – nu este respectat.
Nu am să intru în detalii, dar există cache-uri ale LLM-urilor ce pot expune accidental prompt-uri sau informații inserate în sistem. Da, acele „bug”-uri s-au reparat, dar aici nu vorbim de softuri deterministe, ci de comportamente stohastice care da, pot avea astfel de efecte. Și da, ca să te protejezi trebuie să ai LLM-ul tău, pe serverele sau cloud-ul tău, sau virtualizat în cloud-ul producătorului (Copilot/ Gemini).
Mitul #10: Costurile de mentenanță ale unui sistem AI sunt echivalente cu costurile de mentenanță ale unui sistem IT, fiindcă se bazează pe servere și computere.
În niciun caz. Guvernanța AI diferă de guvernanța IT și costurile pot fi cu mult, mult mai mari. În primul rând, trebuie să faci continuu evaluarea de riscuri – riscuri asupra persoanelor afectate, riscuri asupra modelului AI, riscuri asupra sistemului AI. Ai nevoie de metrici de calitate măsurate continuu – procent de rezultate incorecte, cazuri de discriminare, cazuri de încălcare a unor drepturi, incidente, resurse consumate etc.
Dacă ai un sistem high-risk AI, pe lângă Data Protection Impact Assessment, trebuie să faci Fundamental Rights Impact Assessment. Și trebuie să îl revizitezi continuu. Ai nevoie de SLA-uri de intervenție scurte, chiar și de 2h (dacă AI-ul tău începe să înjure clientul, să îi facă rău – inclusiv fizic).
Astfel, costurile de mentenanță și exploatare pot să devină mari, chiar foarte mari.
Cum putem totuși adopta inteligent AI în organizație?
Printr-un model de maturitate și guvernanță. Cu asta ne ocupăm la Tudor Galoș Consulting – se începe cu un workshop de literație AI, se continuă cu identificarea celor mai posibile scenarii unde AI ar aduce valoare, se face „curățenia” datelor (ca parte a unui efort de guvernanță a datelor), se implementează niște piloți (pentru a înțelege ce se poate și nu se poate face), se culeg datele, abia apoi se face scalarea piloților în producție! Și se implementează un cadru de guvernanță clar, cu roluri și responsabilități clare, indicatori de performanță, de risc, se evaluează noi tool-uri, se dezvoltă noi tool-uri etc. Până se ajunge la o organizație data-driven.
Dar nu săriți să adoptați AI în organizație ca pe un simplu soft de contabilitate. Este o sabie cu două tăișuri și aveți nevoie de specialiști – aici nu mai merge cu „merge și-așa”!
