“L’Ai è pericolosa!”: a rivelarlo è Jan Leake, una delle figure più importanti di OpenAi | E dopo la bomba lascia il progetto: c’é da avere paura!
La dichiarazione di uno degli uomini chiave di OpenAi ha destato scalpore e preoccupazione in tutto il mondo: è stato un vero e proprio shock!
La rivelazione di Jan Leake è arrivata su X (ex Twitter) come un fulmine a ciel sereno e mette sempre più preoccupazione circa il ruolo che sta andando a rivestire l’Intelligenza Artificiale nelle vite di tutti i cittadini. Certo, c’é da dire che le preoccupazioni ci sono sin dal primo giorno della sua invasione. E questo può essere identificato con l’arrivo di ChatGPT.
Sono stati tanti gli esperti informativi e di sicurezza del settore che lamentavano la totale mancanza di trasparenza e, soprattutto, vedevano la tutela della privacy degli utenti e dei loro dati messa praticamente da parte. Le dichiarazioni, all’epoca, fecero sì che alcuni enti governativi nazionali, mettessero un divieto all’utilizzo del chatbot di OpenAi.
Quest’ultimo è rimasto in vigore per pochissimo tempo, dato che ne è stato nuovamente consentito l’utilizzo. Ovviamente, però, altre polemiche sono state alimentate dal co-fondatore di OpenAi, o meglio, dalla sua fuga dal progetto posto in essere. Le motivazioni ufficiale, comunicate al mondo intero, riguardano la sfera personale ed il fatto che volesse dedicarsi ad altro.
Ma le ragioni sono di natura etica e riguardano, stando a quanto riferito a suo tempo, proprio l’Intelligenza Artificiale e la sua applicazione nella vita di tutti i giorni. Ed ora, è arrivata una nuova mazzata tra capo e collo per OpenAi. Anche un altro uomo di fondamentale importanza la lascia e spiattella tutte le sue convinzioni su una piattaforma social, incutendo timore in tutti!
“L’IA è una responsabilità enorme che non può essere sostenuta dall’umanità!”
Sono proprio queste le parole utilizzate da Jan Leake e che hanno praticamente lasciato senza fiato tutti nel mondo. Ed ha continuato sostenendo che ciò che sta facendo OpenAi, ovvero la creazione di Intelligenze Artificiale che ragionano come gli esseri umani ed anche in maniera migliore, è qualcosa di raccapricciante e, soprattutto, di pericoloso.
Il protagonista della storia faceva parte del Superalignment team, ovvero, il team di sviluppatori che aveva, come mansione, quella di garantire elevati standard di sicurezza per gli utenti. E questo team è stato sciolto proprio dall’azienda. Leake ha continuato sostenendo che c’è un effettivo ed enorme ritardo che riguarda l’individuazione dei rischi di chatbot e tool di AI generativa.
Sì, perché la tecnologia compie passi da gigante e le sfide che implica questo progresso non sono al momento sostenibili. Si tratta di un vero e proprio terremoto questo, che arriva in un momento in cui OpenAi ha da pochissimo presentato al mondo i suoi nuovi prodotti che, come ben sapete, sono fruibili da tutti in maniera totalmente gratuita. L’Intelligenza Artificiale sta iniziando a far paura anche a chi l’ha sviluppata.