WhatsApp ed AI: scoppia il primo scandalo per utilizzo sbagliato degli stickers | Diventa un caso di razzismo che solleva denunce e critiche
In quest’ultimo periodo abbiamo parlato della piattaforma di messaggistica di Meta e del suo matrimonio con l’Intelligenza Artificiale.
Come ben sapete, al momento questo è accessibile soltanto all’interno della versione Beta di WhatsApp. Sono ancora pochi coloro i quali possono avvalersi dei suoi servigi. In particolar modo, vi abbiamo raccontato di come sarebbe stato possibile, una volta aggiornata la versione stabile, creare degli stickers fantastici, descrivendo con testo ciò che si voleva ricreare.
Sarebbe stato qualcosa di davvero fantastico. Un po’ come avviene con i chatbot di AI, come ChatGPT, ad esempio o Bing. Insomma, gli utenti, una volta ottenuta sul proprio device questa nuova versione aggiornata della piattaforma di messaggistica più utilizzata al mondo, potranno sbizzarrirsi a creare i più strani tra gli stickers.
E, parliamoci chiari, tutti abbiamo pensato a creare, magari, un cane con tre code, un unicorno simile ad una giraffa. Insomma, ci ha fatto tornare bambini, almeno per cinque minuti dopo aver letto la notizia. Eppure, già adesso, questa nuova funzionalità sta avendo dei problemi che dire assurdi è poco. Sono tantissime le proteste e le critiche da parte di chi ha utilizzato il nuovo servizio.
E pensare che si trova ancora nella versione beta di test e che, per fortuna, non è arrivato nelle versioni stabili. Per quel che è successo, ci sarebbe stata una vera e propria catastrofe. E noi siamo qui per questo, per informarvi su cosa sta accadendo proprio in questi ultimissimi giorni. Pronti a scoprirlo? Vi diciamo subito che c’é una parola ricorrente: razzismo!
WhatsApp sotto i riflettori insieme a Meta: razzismo ed islamofobia le accuse!
E questo potrebbe essere il riassunto perfetto della situazione. E’ un quadro generale che prende le mosse da ciò che sta accadendo realmente. In realtà, possiamo dire che Meta non sia nuova a questo tipo di problematiche. Già su Instagram si ha la stessa sensazione nel momento in cui si va a tradurre una biografia dall’arabo.
In questo caso, c’é sempre, o quasi, secondo quanto riportato, la parola “terrorista”. Ora, però, il caso di WhatsApp è ancora più assurdo. Sì, perché la nuova funzionalità Beta, nel momento in cui si immettono parole come “Palestina” o “palestinese”, insomma si scrive qualcosa che ha a che fare con il conflitto in Medio Oriente che sta causando numerosissime vittime innocenti, avviene qualcosa di spregevole.
Appaiono sticker di bambini palestinesi armati. Sì, avete capito benissimo, all’interno dell’algoritmo sono state inserite, da mano umana, informazioni, anche a carattere razzista ed islamofobico, riguardo la guerra in atto. Dal canto suo, però, Meta fa sapere che sta indagando sulla questione e ha garantito che risolverà quanto prima il problema prendendo seri provvedimenti.