Ieri am făcut un mic „experiment” pe Facebook, șters între timp ca să protejez identitatea celor care au comentat. Am luat o poză de pe Reddit, cu un copil ce semăna cu vloggerul Selly ținând în mână o poză cu Victor Ponta din campania acestuia de la Alegerile Prezidențiale din 2014. Practic, dacă era vorba de Selly, acesta ar fi avut atunci 13 ani. Am aruncat un titlu ce știam că va „încălzi” lumea, „Este important să te implici de mic în politică” și am lăsat algoritmul Facebook să își facă treaba.
Înainte să explic ce s-a întâmplat, trebuie să dau puțin context. De când mă ocup cu partea de consultanță de privacy compliance, am studiat atent modul în care rețelele sociale ne prelucrează datele personale precum și modul în care le folosesc. Deși sunt multe lucruri ascunse și indicatori psihometrici pe care nu îi vedem, multe dintre prelucrări și efecte sunt la vedere. Când a apărut scandalul Cambridge Analytica, în 2018, cei din zona de Big Data știau foarte bine cu ce se ocupă Cambridge Analytica. Nu am înțeles niciodată de ce abia în 2018 a pușcat treaba ținând cont că tot ce făceau ei era la vedere. Nu credeți? Iată un film din 2016, de la o conferință, film PUBLIC, ce descrie fix ce a spus acel „whistleblower” că cei de la Cambridge Analytica fac. Doar că este prezentat cu titlul de laudă chiar de către fostul CEO al Cambridge Analytica.
Revenind – Facebook folosește datele noastre personale pentru a-și train-ui algoritmii de inteligență artificială. Modelele sale predictive pot acum intui destul de corect reacții ale utilizatorilor, acțiuni pe care aceștia le vor face, probabilități de conversie etc. De asemenea algoritmii Facebook servesc în timeline acele informații cu care utilizatorii vor interacționa – deci fiecare utilizator are timeline-ul său propriu și personal, cu conținut „ales” de către algoritmii Facebook. De aceea anumite postări se „viralizează” – ele sunt livrate acelor oameni care au cea mai mare probabilitate să interacționeze (click, like, share) cu conținutul. Bănuiala noastră, a celor din big data și privacy compliance este că din când în când Facebook permite unor organizații terțe – marketing politic, marketing de masă – să „ajusteze” timeline-ul unor utilizatori pentru a-i manipula într-o direcție sau alta (cam ce ați văzut în videoclipul lui Cambridge Analytica de mai sus), doar că încă nu putem demonstra factual acest lucru.
Revenind la acest micro-experiment, logica simplă spune că trebuiau puse trei întrebări:
- Cine este copilul din poză?
- Poza este trucată?
- Chiar dacă personajul din poză este Selly, ce relevanță are ținând cont că avea 13 ani la momentul fotografiei?
Pe scurt, conținutul postat de către mine era complet și total irelevant. Nu și pentru Facebook care l-a țintit foarte bine către oameni care au interacționat cu el. Până la momentul ștergerii aveam 165 de reacții, 52 de comentarii și 5 shares.
Foarte puțini utilizatori și-au pus cele trei întrebări de mai sus. Mulți au amplificat mesajul, mulți au venit cu reacții de ură, fie către Selly, fie către mine. Cei cu vechime în digital s-au cam prins, ceilalți nu. Și așa funcționează de fapt Facebook – un canal ce amplifică reacțiile extreme, de ură, de violență, de agresivitate online.
V-am promis rezultatele unui „experiment” mai mare, dar nu am avut efectiv timp să le compilez. Voi reveni, pur și simplu rezultatele sunt vomitive. Reale, dure, dar îți provoacă silă și dezgust.
Sunt unul dintre cei care militează pentru reglementarea funcționării rețelelor sociale și a modului în care timeline-ul este „aranjat” de către diverși algoritmi de inteligență artificială care iau decizii în legătură cu ce fel de conținut ar trebui livrat utilizatorilor unei platforme.