On 10/03/26 22:18, Tony Borlini wrote:
>
>
>> Una novita' importantissima e' stata introdotta nel nuovo modello chatgpt5.4
>> per la lotta alle allucinazioni del modello.
>
>Ma tu a livello di esperienza personale, che io so essere piuttosto
>approfondita, puoi sinceramente dire di aver osservato molte
>allucinazioni nei modelli che usi di solito?
>
Ultimamente no. Mi e' capitato frequentemente in passato che chatgpt
"allucinasse" le istruzioni sui menu' delle app...altre volte "deduceva"
indirizzi email erronei... Queste sono le allucinazioni piu' frequenti.
Perplexity in passato aveva prodotto qualche allucinazione clamorosa.
Dalla mia esperienza derivano tutte da generalizzazioni e da deduzioni
errate del modello. In altre parole non "inventa" le informazioni, prova a
"dedurle" a volte correttamente, a volte sbagliando.
Il problema fino ad oggi e' che non era possibile sapere automaticamente che
una informazione era stata "dedotta" e come l'aveva dedotta. A volte me lo
spiegava pure dopo averglielo chiesto o dopo avergli fatto notare l'errore.
Ma dovevi chiederglielo e non sempre te lo spiegava. Ora te lo dice in
anticipo da solo ad ogni interazione, anche se non ti dice che tipo di
ragionamento ha fatto. Ecco perche' dopo aver indagato questo comportamento
ho messo nelle istruzioni personalizzate di indicarmelo ed ora me lo indica
ogni volta chiaramente.
Di recente non e' riuscito dopo un centinaio di interazioni corrette a
risolvere un problema intricato con una dichiarazione isee che invece
Gemini3 ha risolto in modo brillante, ma poi dopo un bel po' di interazioni
ci era arrivato pure chatgpt con un enorme sforzo in piu'...
>Io assolutamente no, e proprio recentemente ho chiesto spiegazioni al
>modello che utilizzo quotidianamente in questo periodo, cioè
>Qwen3.5-Plus, sul perché negli articoli leggevo continuamente di
>allucinazioni da parte degli LLM ed io invece non ne rilevavo mai
>alcuna.
>Mi ha risposto che dipendeva da me e che le allucinazioni capitano
>soprattutto con utenti che hanno un approccio con l'IA del tipo "mordi
>e fuggi".
>
Certamente. Molte persone non sanno scrivere prompt dando sufficiente
contesto per spiegare il problema da risolvere ed il modello anzicche'
chiedere all'utente ulteriori informazioni, "deduce" quello che l'utente
non gli dice, sbagliando.
Nel momento in cui il modello sbaglia, l'utente non sapendo interagire con
il modello crede che occorra una sola interazione e questi utenti di solito
sono gli utenti che dicono che "l'AI non funziona". Ovviamente a questo
genere di utenti i modelli daranno molte allucinazioni perche' ci sono
enormi "buchi" di informazioni nei prompt. Altra cosa io interagisco spesso
con screenshot oltre che con il testo ed il modello si rende conto di
eventuali errori nell'indicare i percorsi su app e siti web guidandomi
correttamente. In altre parole faccio un uso intensivo della funzione
vision. Poi ci potrebbe pure essere il problema delle modalita'. Se non
imposto thinking e ricerca web stai usando il modello ai minimi termini.
Quindi certamente il come lo si usa determina il risultato.
>In pratica, dal quel che ho capito della sua spiegazione, se un utente
>fa una domanda secca e attende la risposta esatta, può capitare che il
>modello risponda inventandosi le cose, mentre se l'utente, proprio come
>faccio io, accede per interagire con il modello, domanda ma non
>pretende la risposta immediata ed invece richiede delle ricerche,
>discute, confronta le idee e valuta i suggerimenti ricevuti magari
>anche replicando, ecco che alla fine le risposte sono esaurienti e
>prive di imprecisioni e invenzioni immaginarie.
>
Si' e' esattamente il modo in cui va usata l'AI non come si usa Google ma
come si interagisce con una persona. Il fatto e' che magari le persone
pensano che sia facile ed ovvio usare le AI e non hanno mai visto i video
su YouTube dove le altre persone con piu' esperienza, conoscenza e
dimestichezza le usano.
>Quindi, secondo Qwen, tutto dipende dall'atteggiamento dell'utente e
>dal suo modo di interagire col modello. Credo che questo corrisponda al
>vero, o almeno nel mio caso è proprio così visto che come ho già
>scritto, io non rilevo mai allucinazioni.
>
Le allucinazioni sono rare e localizzate per tipologia. Vale a dire che
dipendono anche dal tipo di richiesta e tipologia.
In molte tipologie di richieste non si notano allucinazioni.
Per inciso,il team di qwen e' molto capace, molte persone del team, stanno
ricevendo offerte per essere assunte da Google per contribuire a sviluppare
Gemini...
>Cosa diversa invece con i generatori di immagini che a volte non
>rispettano le indicazioni che ho scritto nel prompt: capita che
>aggiungano particolari geniali e molto coerenti con l'argomento anche
>se non presenti nel prompt, ma purtroppo succede pure che invece si
>inventino assurdità incredibili.
>
Qui invece e' particolarmente vero quello che dice Qwen. Scrivere prompt
Cinematografici richiede la conoscenza delle angolazioni, delle
inquadrature da specificare e del gergo cinematografico. Stessa cosa vale
per la generazione di musica. I generatori di video e musica funzionano in
modo diverso dagli LLM per cui la cosa piu' furba e' farsi scrivere dei
prompt Cinematografici da Chatgpt e Gemini che conoscono il gergo
cinematografico ed anche il linguaggio umano ed incollarli su Sora,
Veo,Kling ecc...i pubblicitari fanno cosi'!!! L'alternativa e' seguire un
breve corso di cinematografia ed imparare gergo ed abbreviazioni in modo da
scriverle direttamente sul generatore di video. Scrivere i prompt sui
generatori video e' un po' come la programmazione tradizionale, bisogna
conoscere le paroline tecniche da scrivere per avere esattamente cio' che
si vuole.
>In quei casi ho però spesso avuto l'impressione che fingano di non
>capire; mi accade soprattutto con vignette ironiche o paradossali; il
>generatore non comprende il senso della vignetta, la considera in modo
>sbagliato e magari pure in contrasto con i suoi principi interni, ed
>allora anziché rifiutarsi di generarla, semplicemente finge di capire
>male e disegna cose contrarie alle direttive che ha ricevuto.
>
Se quello che chiedi e' ambiguo rispetto alle linee guida del modello,
l'unica possibilita' per ottenere cio' che si vuole, e' provare a
spiegargli il motivo della richiesta mettendo implicitamente in risalto la
sua leggittimita'....
>In quelle situazioni anziché usare un generatore di immagini trovo sia
>molto meglio usufruire di un modelle multimodale con cui poter
>discutere come impostare il prompt e alla fine, quando sono convinto
>che abbia capito perfettamente qual è il reale messaggio della
>vignetta, chiedere di generarla. Per quella che è la mia limitata
>esperienza, la conclusione è comunque sempre la stessa: è tutta una
>questione di dialogo e di non avere fretta di ottenere il risultato
>desiderato.
>
Esatto il modello multimediale rispetto al modello per generare video riesce
a mediare fra linguaggio umano e prompt video tecnici e quindi riesci ad
ottenere molto piu' facilmente quello che chiedi. Tuttavia se impari il
gergo Cinematografico ed il linguaggio cinematografico otterrai risultati
parecchio piu' coerenti...
Potrei pure condividere la mia playlist privata su YouTube su questo tipo di
conoscenze...(Che avevo iniziato a vedere ma al momento mi sto occupando di
altro e non sono riuscito a completarla...)
--
Posted from
PhoNews Pro for Android V.3.13.3
News.individual.net - Addio dal 30 sett 2027!! :-(