Il 20/01/2026 16:35, Bingo3331 ha scritto:
> Il discorso va molto piu' in fondo di cosi'... ChatGpt di suo non saprebbe
> cosa e' bene e cosa no (o almeno tutti noi presumiamo che non lo sappia). I
> Red Team di Anthropic, di OpenAI e Google hanno deciso di recente di essere
> piu' malleabili nel far rispondere le AI su argomenti delicati.
> Se hai visto i video che ho postato in precedenza sono stati intervistati
> proprio i responsabili dei red team di Anthropic e di Google (Deep
> Mind).Loro stessi hanno spiegato che rispetto al passato, le AI possono
> "interpretare" le intenzioni dell'utente (perche' sono stati addestrati da
> loro in tal senso) e nel caso in cui siano sufficientemente certe della
> buona fede dell'utente fornire le informazioni richieste che invece non
> fornirebbero ad altri utenti di cui abbiano un chiaro indizio di danno o di
> malafede. Ecco perche' se poni una domanda di ordine legale, medico,
> economico o su argomenti sessuali, le AI possono decidere (da soli) se
> rispondere o meno ad un determinato utente in base a come pone la domanda
> ed al suo profilo ed al suo "sentiment". In teoria se un depresso parla di
> manie di suicidio, le AI non solo non gli rispondono come vorrebbe ma
> lanciano addirittura l'allarme (dopo il caso del ragazzo depresso che si
> era suicidato e di cui chatgpt, secondo l'accusa, l'avrebbe assecondato...)
Stavo per scriverlo io ma lo hai fatto te. Tra poco le AI potranno
"denunciare" alle autorità una persona se comprendono che ha nell'animo
di fare qualcosa di "male"/illegale.
Anche se a fin di bene sta cosa non mi tranquillizza manco per il belino! ;)
--
Michele