Path: news.corradoroberto.it!fu-berlin.de!uni-berlin.de!individual.net!not-for-mail
From: Bingo3331 <invalid@invalid.com>
Newsgroups: free.it.ai.general
Subject: Re: esperimento
Date: 2 Feb 2026 00:08:38 GMT
Lines: 71
Message-ID: <mua886FuosU1@mid.individual.net>
References: <10lklb3$2qii1$1@dont-email.me>
<mu793fFgcdqU1@mid.individual.net> <1769959388-4629@newsgrouper.org>
<mu9qb0Ft82jU1@mid.individual.net> <10loedr$3qm33$2@dont-email.me>
Mime-Version: 1.0
Content-Type: text/plain; charset=UTF-8; format=flowed
Content-Transfer-Encoding: 8bit
X-Trace: individual.net LtrKExvUBc2tWvAwO0ettgpEru/Ov33TaYPJ0XAt1fF94C+gaR
Cancel-Lock: sha1:LpNwCMxDJ4q9Yk2U/t5G/d9Xhfs= sha256:B8CSBnpX12FvcJniKg6GXap4gvX5nzjeUNiQkKFyiD0=
User-Agent: PhoNews/3.13.3 (Android/14)
In-Reply-To: <10loedr$3qm33$2@dont-email.me>
Xref: news.corradoroberto.it free.it.ai.general:1652
On 01/02/26 21:52, SuDo wrote:
>Il giorno 1 Feb 2026 20:11:13 GMT
>Bingo3331 <invalid@invalid.com> ha scritto:
>
>
>c'è una certa somiglianza tra la struttura delle LLM e le teorie (in
>parte confermate dalla neuroanatomia) del cognitivismo linguistico di
>Lakoff.
>
>Ambedue sono di tipo Gestalt: l'intero non è la somma delle parti, il
>comportamento del intero non si può indurre dal funzionamento delle
>singole parti.
>
Ok. Questo e' interessante.
>La conseguenza è che né nelle LLM né nel cervello umano vi sono zone
>della rete in cui stanno dati, in cui vi è un database con informazioni
>da elaborare. È l'attivazione di connessioni di rete che restituisce le
>elaborazioni mnemoniche razionali.
>
Si' esattamente. Solo una precisazione. Nel cervello umano le informazioni
della vita della persona e le sue conoscenze vengono fuori dalle sinapsi
all'interno della rete neurale.
Negli LLM le informazioni relative all'addestramento vengono fuori dai
"pesi" all'interno della rete neurale, ma le informazioni relative alle
conversazioni con gli utenti si trovano effettivamente su database esterni
alla rete neurale. E' il motivo per cui l'utente non puo' "addestrare" il
modello AI per gli altri utenti, ma puo' chiaramente dare istruzioni (che
vengono memorizzate su questi database) in modo che il modello ne tenga
conto nell'interazione con l'utente.
Oltretutto tutti gli utenti del mondo, chiaramente non dialogano in
contemporanea con un solo modello AI, ma con copie diverse dello stesso
modello, per cui quando anche fosse possibile "addestrare" per ipotesi
assurda una di queste copie, poi l'addestramento si dovrebbe propagare
anche alle altre copie del modello,per avere senso.
>Se il modello Lakoff è almeno parzialmente vero vuol dire che è
>possibile che un giorno, aumentando la complessità delle reti, le
>LLM possano diventare ¨umane¨.
>
Fino ad ora gli esperimenti hanno confermato che al crescere della grandezza
dei modelli LLM aumentano le "proprieta' emergenti" e quindi viene
confermata questa intuizione.
C'e' da dire che le aziende AI la danno per scontata, ad eccezione proprio
del team di Gemini/Deepmind che sostiene che per raggiungere il livello del
cervello umano servono oltre agli LLM anche simulazioni del mondo fisico.
Questo viene gia' fatto per addestrare gli androidi. La nuova versione di
"Neo" di "1x" pare che "immagini"(simuli con la generazione di centinaia di
video) le azioni che gli viene comandato di fare, in tempo reale prima di
poterle compiere correttamente.
(Precedentemente c'erano state polemiche in merito alla precedente versione
di questo androide in quanto era "telecomandato" a distanza e nemmeno cosi'
era in grado di svolgere semplici azioni).
La posizione fra il team di Deepmind di Google rispetto alle altre aziende
AI, diverge pure in merito alla stima dei tempi per il raggiungimento
dell'AGI. Secondo Deepmind ci vogliono ancora 5-10 anni. Secondo OpenAI ed
Anthropic al max ci vogliono due anni.
>Ovviamente in teoria perché i neuroni del cervello umano sono oltre 80
>miliardi con 100 trilioni di sinapsi ed è possibile che ci siano limiti
>fisici invalicabili a riprodurre in chip la complessità del cervello.
>
Questo e' un bel quesito. Se ci sono dei limiti lo scopriremo presto. Per il
momento OpenAI sta costruendo citta' fatte di Data center. Bastera' questo
a creare le premesse per raggiungere l'AGI?
--
Posted from
PhoNews Pro for Android V.3.13.3
News.individual.net - Addio dal 30 sett 2027!! :-(