Ci sono ancora problemi relativi a ChatGPT, si suoi utenti ed all’utilizzo che questi ultimi ne fanno, giorno dopo giorno durante l’anno.
Ormai, questo chatbot di Open AI è arrivato da un anno e si possono tirare un po’ le somme di ciò che è state ciò che è. Si. Da subito, questo chatbot basato sull’Intelligenza Artificiale ha destato la curiosità di tantissimi utenti che hanno iniziato ad utilizzarlo in maniera massiva. Pensiamo, ad esempio, ai tantissimi studenti nel mondo
Questi hanno iniziato subito a chiedere aiuto per lo svolgimento di temi di italiano, ma anche di problemi di matematica, più o meno complessi. Inoltre, si sono avvalsi dei suoi servigi per effettuare delle ricerche scientifiche, storiche. Molti, poi, sono stati i lavoratori che hanno chiesto un aiuto e tanti i curiosi che hanno iniziato interagire con il chatbot di Open AI. E, poi, ci sono gli sviluppatori.
Questi ultimi, infatti, hanno chiesto a ChatGPT di scrivere del codice, semplice, di base, per avviare quello che sarebbe potuto essere un sito o una web App. E possiamo dire che, in tutti questi casi, i risultati ottenuti siano stati più che soddisfacenti. Ad aprile, però, sono arrivate le prime rogne anche in Italia con il Garante per la Privacy che ne ha violato l’utilizzo per problemi legati alla violazione della privacy.
Dopo poco, però, è tornato sui suoi passi per la gioia di numerosissimi utenti. Ora, però, quel che è emerso da recenti studi ha dell’incredibile ed ha gettato nel panico in parecchi. Il problema è a livello mondiale e riguarda, finanche, i dati sensibili di tantissimi fruitori abituali dei servigi del chatbot di Open AI. Vediamo, allora, insieme cosa sta accadendo.
Ebbene si, avete capito benissimo. Se siete tra quelli che usufruiscono dei servizi di questo chatbot, fareste bene a preoccuparvi. Alcuni ricercatori, infatti, hanno scoperto che ChatGPT utilizza i dati incamerati durante il suo addestramento. Si tratta di un problema conosciuto come “memorizzazione”. Ed il problema in questione capita soprattutto con particolari domande.
In pratica, stando a quanto riferito dai protagonisti dello studio, nel momento in cui si chiede a ChatGPT di ripetere all’infinito una determinata parola, questo li farà, ma ad un certo punto andrà a pescare tra i dati presenti sin dal momento del suo addestramento. Ed è in questo momento che iniziano i guai, quelli seri. Si, perché appariranno a schermo dati sensibili di alcuni utenti.
Ciò vuol dire che qualcuno potrebbe fare suoi, finanche, i vostri dati sensibili. Indirizzi di residenza, date di nascita, dati su Bitcoin, sono solo alcuni dei dati apparsi durante le conversazioni con questo chatbot di Intelligenza Artificiale. Per fortuna, però, che questo bug assurdo sia stato segnalato e risolto da Open AI alla fine dello scorso mese di agosto!
Di truffe in giro per il mondo ce ne sono davvero tantissime e ne abbiamo…
Da più di un anno, ormai, i device Android sono sotto attacco così come sono…
Unieuro questo mese di settembre punta sulla sorpresa e possiamo dire che ci è riuscito…
Ci sono ancora problemi relativi agli smartphone Android ed alla possibilità, quasi certezza, che gli…
C'é un'allarme appena lanciato che riguarda WhatsApp e, soprattutto, gli account della piattaforma che vengono…
Può capitare molto spesso che il Pc, dato che se ne fa un larghissimo utilizzo,…