Sistemele de tip Large Language Models (LLM) precum ChatGPT mint. „Halucinează”, cum spun specialiștii, mint, cum o spun eu dramatic sau generează rezultate ce nu sunt conforme cu realitatea, cum ar trebui să se spună. O fac „by design” și „by default”, nu vorbim aici de bug-uri sau erori de programare. Rolul unui LLM nu este să îți spună adevărul, ci să genereze următorul cuvânt dintr-o frază. Modelele mai noi halucinează mai puțin, dar tot o fac.
ChatGPT ca terapeut.
La ora actuală, ChatGPT este folosit la greu pentru terapie. Riscurile sunt uriașe: suicid, depresie, anxietăți crescute. Un LLM este un „echo box”, adică susține subiectul pe care i-l dai tu. Te „susține”, vorbește frumos cu tine. Dar dacă ai anxietăți, ți le va amplifica, dacă ai depresie, vei fi mega-deprimat, dacă ai tendințe suicidale, poți să-ți iei loc de veci.
Nu folosiți ChatGPT ca terapeut. Banii pe care îi „salvați” o să îi dați pe medicamente sau pe înmormântare. Dependința de ChatGPT este toxică și te poate conduce pe drumul cel fără de întoarcere. Trebuie să înțelegi faptul că un model LLM este un model matematic statistic, ce dă răspunsuri statistice la input-uri. Adică poate îi bine, poate nu. Iar dacă nu e bine, când îl folosești ca terapeut, mormântul este direcția.
ChatGPT ca asistent în business.
Folosirea în exces a ChatGPT pentru realizarea unor task-uri aparent repetitive: scrierea unei propuneri de vânzări, scrierea unui email, scrierea unui răspuns la un email, scrierea unui job description, scrierea unui răspuns la o cerere de ofertă/ licitație duce la tâmpirea oamenilor. Da, devii prost, întrucât dacă dacă îți scrie ăla tot ce ar trebui tu să faci o să ajungi să nu mai știi cum să îl controlezi – adică să îi verifici munca. Și el minte, vezi mai sus. Nu o să mai ai capacitate de analiză, deloc.
La cursurile noastre (următorul în 13 Nov) învățăm lumea cum să lucreze cu un LLM ca asistent – focus mai mare pe structură, nu pe conținut. Să îți genereze structura unui document, să îl refrazeze, să îl corecteze, mai puțin să genereze. Ca totuși să rămâi tu subject-matter expert, el nu are cum să devină SME pe ce faci tu. Decât dacă munca ta este absolut inutilă, atunci da, te poate înlocui.
ChatGPT ca asistent legal.
Mor de râs, efectiv mor de râs cu oamenii ce argumentează legal folosind ChatGPT. Da, te poate ajuta să dai un format „legalez” unui document sau unei interpretări, succes în a găsi articolul/ legea/ citatul/ caselaw-ul unei spețe.
Am văzut ChatGPT inventând legi, articole din legi, paragrafe. L-am pus odată, de curiozitate, să facă o interpelare citând articole din GDPR. Le-a găsit, dar le-a „rescris” – nu știe să facă copy & paste (și nu pentru că este prost ci pentru că nu acesta este scopul unui LLM) așa că l-a generat din nou, ca și cum ar fi fost scris din el. Repet, nu este un bug, este un comportament „by default”.
Cum reducem halucinațiile.
La ora actuală, halucinațiile pot fi reduse prin conectarea la sisteme de date limitate (RAG – retrieval-augmented generation), prin conectarea la sisteme multi-agenți proiectate static (tot cu utilizare de date din sisteme de date limitate) sau prin „curățarea” datelor ce pot fi folosite. Și nici atunci halucinațiile nu vor fi zero.
Companiile care spun că LLM-urile sau generativele lor au zero halucinații fie mint cu nerușinare, fie nu au nicio expertiză în acest domeniu. Vorbim de statistică matematică aici, dacă ai avea zero deviații nu ar mai fi statistică.
În loc de concluzie.
Acest articol nu este scris cu AI, cum vă dați seama. Sistemele AI, de toate tipurile, pot ajuta la forecast-uri, la piloți automați, robotică și automatizări, externalizări de sarcini, analize matematice probabilistice complicate, generative etc. Termenul este „ajuta”, nu „înlocui”. AI-ul nu va înlocui niciodată specialiștii, indiferent cât de bine sunt pregătiți.
Știu că veți întreba de ce: am să explic fail-ul sistemului de filtrare a CV-urilor instituit acum 10 ani de Amazon. Un AI menit să „scaneze” CV-urile candidaților și să le găsească pe cele care se apropie cel mai mult de CV-urile top talents din Amazon. Problema a fost că a scos toate femeile din calcul, întrucât majoritatea top talents erau bărbați. Algoritmul nu a greșit deloc întrucât nimeni nu i-a dat contextul etic și nu i-a spus că o variabilă de tipul „gender” este o variabilă ce duce la discriminare. Algoritmul a văzut că dpdv statistic, variabile „gender: MALE” se regăsea în majoritatea CV-urilor top talents din Amazon așa că a luat-o în calcul ca factor de succes. Cine a greșit? Oamenii de date întrucât nu au eliminat bias-ul din date. Gândiți-vă că ChatGPT și toate sistemele publice GenAI au indexat tot Internetul, cu toate mizeriile posibile. Sper că înțelegeți concluzia…
