Path: news.corradoroberto.it!eternal-september.org!feeder.eternal-september.org!nntp.eternal-september.org!.POSTED!not-for-mail
From: son <son@mailnesia.com>
Newsgroups: free.it.ai.general
Subject: Re: IA in locale?
Date: Fri, 1 May 2026 23:29:38 +0200
Organization: A noiseless patient Spider
Lines: 21
Message-ID: <10t361g$1nhqj$1@dont-email.me>
References: <10sojv4$2mo9r$1@dont-email.me> <10stiem$40b8$3@dont-email.me>
<10svf6u$kmrt$1@dont-email.me> <10t263e$17l6u$1@solani.org>
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8; format=flowed
Content-Transfer-Encoding: 8bit
Injection-Date: Fri, 01 May 2026 21:30:24 +0000 (UTC)
Injection-Info: dont-email.me;
logging-data="1820499"; mail-complaints-to="abuse@eternal-september.org"; posting-account="U2FsdGVkX1+vs+EquR5RtFVg7QauXP4/"; posting-host="cb116e758ec9d60b571dfb82092d81bc"
User-Agent: Mozilla Thunderbird
Cancel-Lock: sha1:DxHXvfG86LMJAZzryBZKBlybqwo=
Content-Language: it_IT
In-Reply-To: <10t263e$17l6u$1@solani.org>
Xref: news.corradoroberto.it free.it.ai.general:2219
Il 01/05/2026 14:25, VITRIOL ha scritto:
> Il 30/04/2026 13:41, son ha scritto:
>
>> Tutta internet+tutto il materiale letterario?
>
> E' sempre la solita questione, gli LLM non sono database. Se un modello
> ha tot centinaia di miliardi di parametri nella rete neurale quello è un
> valore fisso. Con l'addestramento a ogni parametro viene associato un
> peso, che è semplicemente un numero.
> Anche a me sembra un po' controintuitivo, viene spontaneo immaginarsi
> una database che contiene dei testi dal quale si va a pescare, ma non è
> così.
Sì poi c'ho pensato anch'io. Leggo che gli LLM più piccoli hanno
parametri nell'ordine di un miliardo. Una matrice quadrata di un
miliardo di righe e colonne che contiene numeri in singola precisione
(float32) occupa 4 Exabyte (EB).
Evidentemente sbaglio qualcosa, ma non capisco cosa.
Forse non è una matrice quadrata sui parametri del modello ma su
qualcos'altro. Eppure una matrice quadrata dovrebbe esserci...