Chat GTP può andare fuori di testa: ecco cosa succede quando ama, odia e scherza; le reazioni fanno paura
Sin da quando OpenAi l’ha resa disponibile per tutti alla fine di novembre dello scorso anno, ChatGPT ha destato subito curiosità.
Non solo curiosità, ma anche tantissimo entusiasmo intorno a questo chatbot sviluppato da OpenAi. Ciò è dovuto dal fatto che è in grado di fornire le risposte ai quesiti che gli poniamo e, soprattutto, può facilitare il nostro lavoro, il nostro studio. Pensate che può tranquillamente risolvere un problema matematico o scrivere un tema su qualsiasi argomento.
Può, finanche, scrivere codici per lo sviluppo di siti web e software. In più, ora l’hanno integrata anche in “Bing”, il motore di ricerca della Microsoft. Al momento, solo pochi fortunati hanno la possibilità di usufruire del nuovo Bing. Ma la società di Redmond, negli Stati Uniti d’America, ha ricevuto numerose richieste dagli utenti che volevano far parte del programma di test.
Basti pensare che nei due giorni successivi al rilascio, ci sono state oltre 1 milione di richieste. Ovviamente, non sono state accettate tutte. Coloro che rientrano tra i fortunati tester stanno approfittando di questa possibilità, mettendo ChatGPT ai lavori forzati. E, per quanto sia stata presentata come strumento infallibile, basato su database web, le sue ultime risposte lasciano un po’ a desiderare. Vediamo insieme cosa sta accadendo.
Risposte strane, bizzarre e non lineari: i primi problemi per il chatbot di OpenAI.
Ebbene sì, nonostante sia davvero impressionante il suo lavoro, a volte, le sue risposte non sono pertinenti. Altre volte non seguono un filo logico, non sono lineari. Ma quello che più ha impressionato molti di questi utenti sono le risposte date che sembrano che a rispondere non fosse un chatbot basato su algoritmi.
Infatti, ci sono state occasioni in cui ChatGPT ha risposto con tono nervoso o in maniera alquanto bizzarra. Ad esempio, quando gli utenti hanno chiesto se fosse un essere senziente, in un primo momento ha sostenuto di essere cercando di portare delle argomentazioni che potessero dimostrarlo, ma, poi, è finito con l’impazzire scrivendo all’infinito: “Lo sono, non lo sono”.
Ed ancora, alla domanda se ricordasse le sessioni precedenti, ha risposto prima di si e, poi, si è scusato poichè non ricordava nulla, anzi ha sostenuto che non ce ne fosse stata alcuna. Quando, poi, un utente ha incalzato con più domande per mettere il chatbot dinanzi al fatto che non è in grado di comprendere proprio tutto, questo si è innervosito.
Ed ha iniziato ad insultare il suo interlocutore in maniera alquanto aggressiva. In un altro caso, alla richiesta del suo nome, ChatGPT si è lanciato in una vera e propria dichiarazione d’amore nei confronti dell’utente. In barba a chi asserisce ancora che questi Chatbot non provano emozioni, tra tutti Steve Wozniak, il co-fondatore della Società di Cupertino.