Un erou transformat în ostatic, imagini ale atacului confundate cu o furtună, un supraviețuitor prezentat ca actor. Marți, AFP și mai mulți experți au criticat Grok, programul de inteligență artificială creat de Elon Musk, pentru răspândirea numeroaselor informații false despre incidentul de la Sydney, petrecut duminică seara pe plaja Bondi, în timpul sărbătorii evreiești Hanuka.
Atacul, realizat de un tată și fiu care au deschis focul asupra mulțimii, a cauzat cel puțin 15 decese și 42 de răniți. Autoritățile australiene au calificat acțiunea drept un act „antisemită” și „terorist”.
Eroare în lanț
Cazul lui Ahmed al-Ahmed ilustrează amploarea dezinformării, conform Le Figaro. Acest bărbat de origine siriană a fost considerat un „erou” în Australia după ce un videoclip l-a surprins smulgând o armă de la unul dintre atacatori. În timp ce bărbatul grav rănit era internat în spital, Grok a afirmat că aceste imagini reprezintă „un clip viral vechi, ce arăta un bărbat urcând pe un palmier dintr-o parcare”.
Mai mult, Grok a susținut că este vorba despre un „eveniment regizat”. Încă și mai grav, chatbot-ul l-a identificat pe Ahmed al-Ahmed ca fiind un ostatic israelian reținut de Hamas.
Inteligența artificială nu s-a oprit aici. La întrebarea despre o altă scenă a atacului, programul a insistat că este vorba despre imagini din furtuna Alfred, care a lovit estul Australiei la începutul anului. La insistențele unui utilizator, chatbot-ul a recunoscut ulterior că imaginile au provenit din atac.
O altă eroare: după incidentul de la Sydney, unii utilizatori au distribuit o imagine cu unul dintre supraviețuitori, susținând fals că este un actor. Termenul este folosit de teoreticienii conspirației pentru a contesta autenticitatea crimelor în masă și a victimelor afirmației lor. În acest caz, Grok a răspuns cu un mesaj automat: „Mass-media captează minciuni.”

