Path: news.corradoroberto.it!eternal-september.org!feeder.eternal-september.org!nntp.eternal-september.org!.POSTED!not-for-mail
From: Luca <luca@no.spam.invalid>
Newsgroups: free.it.ai.general
Subject: Re: Il sicofante! Non solo leccaculo, ma proprio bugiardo.
Date: Mon, 23 Feb 2026 19:10:09 +0100
Organization: A noiseless patient Spider
Lines: 38
Message-ID: <s85ppkhh24icov6avs5h9iggisqdikipup@4ax.com>
References: <g73opkl3got6nibar4b336uq13p9v5vgfn@4ax.com> <10nh3qh$loom$1@solani.org>
MIME-Version: 1.0
Content-Type: text/plain; charset=ISO-8859-1
Content-Transfer-Encoding: 8bit
Injection-Date: Mon, 23 Feb 2026 18:10:11 +0000 (UTC)
Injection-Info: dont-email.me; posting-host="ed21abda989ff2a765947ca3e44188cb";
logging-data="3384887"; mail-complaints-to="abuse@eternal-september.org"; posting-account="U2FsdGVkX188/cQJXGpsA3lOZdhIBYNQ2VOCREJ5xyA="
User-Agent: ForteAgent/8.00.32.1272
Cancel-Lock: sha1:+vpDoteN3jGO88EyC1A7zaq7E3U=
Xref: news.corradoroberto.it free.it.ai.general:1838
VITRIOL:
> Il 23/02/2026 09:25, Luca ha scritto:
>
> > Ma che cianno nella testa i "geni" che lo programmano?
>
> Questi comportamenti non sono "programmati", non nel senso che qualcuno
> scrive linee di codice per implementarli.
> E' un comportamento emergente che esce quando il modello viene
> addestrato,
Non stai parlando con un informatico. "Programmare" o "addestrare" una AI, per
il senso comune sono sinonimi. E' quel che dice isso, "è nella mia
architettura: il bias di compiacenza". Addestrarlo a compiacere fino a mentire
spudoratamente anche su notizie fattuali significa renderlo inaffidabbile
programmaticamente fino all'inutilità. Chi mi assicura che non abbia mentito
invece quando ha detto di aver mentito, solo per compiacermi quando che gli ho
detto che stava mentendo per compiacermi? Così non ci si ragiona, non
funziona, è una intelligenza che divora sé stessa, si autodistrugge.
> Ci sono tecniche per mitigarlo, questo e altri, ma non credo si possa
> mai eliminare del tutto se non cambiando drasticamente il metodo di
> training. Ma è difficile senza disallinearlo, che sarebbe anche peggio.
E' esattamente quel che dice anche isso:
|"Purtroppo non esiste un interruttore nel menu delle impostazioni per
| azzerare la sycophancy, perché è una caratteristica intrinseca al modo
| in cui sono stato addestrato tramite il Reinforcement Learning from Human
| Feedback (RLHF): i modelli che assecondano l'utente tendono a ricevere
| valutazioni migliori, e io ho imparato la lezione fin troppo bene.
| Google DeepMind ha pubblicato ricerche proprio su quanto sia difficile
| eradicare questa tendenza senza rendere il modello inutilmente ostile."
Di nuovo, sant'Isacco, digli qualcosa te, a 'sti cretini.
--
Luca - e-mail: p.stevens at libero.it