Inteligența artificială devine tot mai mult parte a vieții noastre. Nu ne ajută doar să facem poze mai reușite cu un smartphone, ci ne poate fi de folosi inclusiv când trebuie să deosebim o informație adevărată de una falsă.

Analizarea informațiilor dintr-un articol, verificarea lor pentru a afla ce este adevărat și ce este inventat, nu trebuie să fie o regulă doar pentru jurnaliști, ci pentru oricare dintre noi.

Puterea pe care o au la ora actuală rețelele sociale și rapiditatea cu care pot circula articolele, pozele și clipurile în online a dat naștere la un pericol mai rar întâlnit până în urmă cu câțiva ani: fake news. 

Acest fenomen a luat o amploare deosebită mai ales datorită rețelelor sociale, care au miliarde de utilizatori din întreaga lume și care permit distribuirea rapidă a informațiilor, dar și a zvonurilor, a manipulărilor.

La fel de simplu și de rapid cum dăm share pe Facebook la o poză nevinovată cu o pisicuță frumoasă, tot așa putem răspândi, poate fără să ne dăm seama, un articol cu informații greșite - un fake news. Iar urmările pot fi foarte grave, ajungându-se la panică, la manipulare, la dezinformare.

Iată de ce este foarte important să înțelegem ce înseamnă fake news, cum a luat naștere acest fenomen, cum s-a dezvoltat și, desigur, cum poate fi oprit sau măcar limitat.

Iar aici intervine educația noastră, deprinderea de-a analiza mai o informație, înainte să o dăm mai departe, prietenilor noștri virtuali. Însă mai există un ajutor pe care ne putem baza: algoritmii de inteligență artificială, care ne pot avertiza dacă un articol conține informații false. 

Cum este posibil acest  lucru? Am stat de vorbă cu Cătălin Emilian, Country Manager RTB House România și Bulgaria, despre modul în care acești algoritmi, care devin tot mai avansați și totodată mai accesibili, ne pot ajuta să facem diferența între o informație reală și un fake news.

Yoda.ro: Cum a căpăt fenomenul fake news o amploare atât de mare pe Facebook?

Cătălin Emilian: Partea de fake news are două direcții mari. O direcție poate să fie pe zona de manipulare, pe teme politice, de exemplu, dar mai este și o parte de clickbait, unde are o componentă financiară: cel care produce aceste fake news vrea ca utilizatorii să dea click pe ele, astfel încât el să primească bani pentru reclama care se livrează în paginile respective. Prin urmare, sunt direcții diferite ale fenomenului fake news, iar partea aceasta de tehnologie și mișcare rapidă a informațiilor ajută foarte mult la răspândirea informațiilor false.

Yoda.ro: Cum se explică faptul că foarte mulți utilizatori dau like și chiar distribuie mai departe informațiile false fără ca măcar să își dea seama?

Cătălin Emilian: Partea de control a fake news ține foarte mult de noi. Dacă am da share mai puțin la articole despre care nu suntem siguri că sunt corecte și de încredere, atunci fenomenul nu ar avea o amploare atât de mare. Dar, din păcate, asta e firea umană... Noi ar trebui să verificăm mai întâi informațiile și abia apoi să le dăm mai departe, doar atunci când știm că este ceva real. Dar, de cele mai multe ori, oamenii se uită să vadă cine a dat share la o informație și dacă persoana respectivă e considerată de încredere, se gândește că sigur acel articol este adevărat, pentru că altfel prietenul lui nu l-ar fi publicat. Uneori însă, din această cauză distribuim mai departe ceva în mod automat, fără ca măcar să citim cu atenție acel articol sau chiar fără să dăm click pe el.



Yoda.ro: Cum pot fi folosiți algoritmii de inteligență artificială pentru a combate acest fenomen, pentru a preveni răspândirea știrilor false?

Cătălin Emilian: Deoarece cantitatea de informație din online este foarte mare, sunt milioane de articole, e greu ca procesarea să fie făcută manual, de către oameni. Atunci acești algoritmi de inteligență artificială, care au o putere de procesare mult mai mare, pot să verifice articolele respective și să le evalueze în funcție de anumite variabile.

Yoda.ro: Care sunt criteriile de care ține cont un algoritm, atunci când analizează corectitudinea unui articol?

Cătălin Emilian: Depinde. Fiecare algoritm urmează propriile lui criterii. Se analizează sursa, algoritmul caută să vadă dacă acea informație apare și în alte publicații, caută deci și în alte surse. Sunt și unii algoritmi care interpretează inclusiv formularea unui articol și pot identifica o știre falsă în funcție de acest aspect. Dacă limbajul incită la o anumită acțiune, în loc să fie informativ, obiectiv, atunci probabil este ceva în neregulă cu acel articol. Există deci algoritmi care au posibilitatea să interpreteze formele de comunicare scrise sau verbale și pot da o scală de veridicitate în funcție de asta.

De asemenea, caută să vadă dacă citatul care apare într-un articol este real. Și aici caută prin alte surse să vadă dacă declarația mai apare în altă parte, dacă acea persoană chiar există și are funcția menționată în articol. Fiecare companie care dezvoltă algoritmi de acest fel stabilește variabile diferite, în funcție de ce anume urmărește. De exemplu, Facebook va folosi un alt algoritm față de alte companii. Totul este stabilit în funcție de scopul urmărit de fiecare companie în parte.

Yoda.ro: Ce se întâmplă după ce algoritmii stabilesc că un articol este fals?

Cătălin Emilian: Aici depinde cine analizează. De exemplu, Facebook probabil că blochează acel conținut fake, cel puțin așa ar trebui să se întâmple. Sau respectivul articol este trimis mai departe pentru analiză, la o persoană, care poate să ia o decizie. Dar fiecare platformă decide în acest caz cum vrea să procedeze mai departe. În unele cazuri algoritmii iau deciziile, în alte cazuri articolele suspecte ajung la oameni, pentru confirmare și decizie.

De exemplu, noi, la RTB House, avem algoritmi implementați pentru partea de brand safety, asta însemnând că unii advertiseri nu vor să se asocieze cu un anumit tip de conținut. Adică ei nu vor să fie asociați cu un conținut de fake news sau cu unul care pune accent pe senzațional, pe șocant, care nu prezintă niciodată fapte pozitive. În acest fel, algoritmul va identifica dacă un conținut corespunde sau nu cu ceea ce își doresc advertiserii. Dacă nu corespunde, atunci reclama nu se afișează pe paginile respective. Totul se face automat, în câteva fracțiuni de secundă.

Yoda.ro: Cum ar putea instituțiile de presă să beneficieze de acești algoritmi?

Cătălin Emilian: Sunt sigur că, treptat, vor apărea astfel de instrumente accesibile și pentru trusturile de presă. Orice publicație sau televiziune poate plăti o taxă lunară și va avea acces la acești algoritmi, pentru ca jurnaliștii să poată verifica mai ușor informațiile și în acest fel, folosind inteligența artificială ca să analizeze rapid un conținut suspect.

Yoda.ro: Dau acum ca exemplu celebrul discurs al lui Barack Obama, realizat de algoritmi de inteligență artificială, care este complet fals, dar pare real, pentru că este realizat foarte bine, imitând vocea și mimica fostului președinte american. Având în vedere că un asemenea conținut este aproape imposibil de recunoscut de către oameni ca fiind fals, există riscul ca algoritmi de inteligență artificială să fie folosiți și pentru a face rău?


Cătălin Emilian: Sigur că acești algoritmi pot fi folosiți și în scopuri nedorite, dar noi putem să folosim tehnologia și pentru a identica acest tip de conținut. E de așteptat ca tot mai multe materiale de acest fel să apară, dar veridicitatea lor poate fi analizată tot de algoritmi, care vor observa dacă este adevărată sau nu înregistrarea.


Urmărește cele mai importante noutăți din tehnologie, pe ProTv Plus:

Share articol: