Path: news.corradoroberto.it!eternal-september.org!feeder.eternal-september.org!nntp.eternal-september.org!newsgrouper.org!.POSTED!not-for-mail
From: Tony Borlini <user1527@newsgrouper.org.invalid>
Newsgroups: free.it.ai.general
Subject: Re: Novita' nella lotta alle allucinazioni!!!
References: <n150s9Fio5dU1@mid.individual.net>
Date: Tue, 10 Mar 2026 21:18:31 GMT
Mime-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit
Message-ID: <1773177511-1527@newsgrouper.org>
Injection-Info: newsgrouper.org; mail-complaints-to="newsgrouper@yahoo.com"; posting-account=user1527
Injection-Date: Tue, 10 Mar 2026 21:18:31 GMT
User-Agent: Newsgrouper/0.9.0
Xref: news.corradoroberto.it free.it.ai.general:1928
Bingo3331 <invalid@invalid.com> posted:
> Una novita' importantissima e' stata introdotta nel nuovo modello chatgpt5.4
> per la lotta alle allucinazioni del modello.
Ma tu a livello di esperienza personale, che io so essere piuttosto
approfondita, puoi sinceramente dire di aver osservato molte
allucinazioni nei modelli che usi di solito?
Io assolutamente no, e proprio recentemente ho chiesto spiegazioni al
modello che utilizzo quotidianamente in questo periodo, cioè
Qwen3.5-Plus, sul perché negli articoli leggevo continuamente di
allucinazioni da parte degli LLM ed io invece non ne rilevavo mai
alcuna.
Mi ha risposto che dipendeva da me e che le allucinazioni capitano
soprattutto con utenti che hanno un approccio con l'IA del tipo "mordi
e fuggi".
In pratica, dal quel che ho capito della sua spiegazione, se un utente
fa una domanda secca e attende la risposta esatta, può capitare che il
modello risponda inventandosi le cose, mentre se l'utente, proprio come
faccio io, accede per interagire con il modello, domanda ma non
pretende la risposta immediata ed invece richiede delle ricerche,
discute, confronta le idee e valuta i suggerimenti ricevuti magari
anche replicando, ecco che alla fine le risposte sono esaurienti e
prive di imprecisioni e invenzioni immaginarie.
Quindi, secondo Qwen, tutto dipende dall'atteggiamento dell'utente e
dal suo modo di interagire col modello. Credo che questo corrisponda al
vero, o almeno nel mio caso è proprio così visto che come ho già
scritto, io non rilevo mai allucinazioni.
Cosa diversa invece con i generatori di immagini che a volte non
rispettano le indicazioni che ho scritto nel prompt: capita che
aggiungano particolari geniali e molto coerenti con l'argomento anche
se non presenti nel prompt, ma purtroppo succede pure che invece si
inventino assurdità incredibili.
In quei casi ho però spesso avuto l'impressione che fingano di non
capire; mi accade soprattutto con vignette ironiche o paradossali; il
generatore non comprende il senso della vignetta, la considera in modo
sbagliato e magari pure in contrasto con i suoi principi interni, ed
allora anziché rifiutarsi di generarla, semplicemente finge di capire
male e disegna cose contrarie alle direttive che ha ricevuto.
In quelle situazioni anziché usare un generatore di immagini trovo sia
molto meglio usufruire di un modelle multimodale con cui poter
discutere come impostare il prompt e alla fine, quando sono convinto
che abbia capito perfettamente qual è il reale messaggio della
vignetta, chiedere di generarla. Per quella che è la mia limitata
esperienza, la conclusione è comunque sempre la stessa: è tutta una
questione di dialogo e di non avere fretta di ottenere il risultato
desiderato.