Path: news.corradoroberto.it!fu-berlin.de!uni-berlin.de!individual.net!not-for-mail
From: Bingo3331 <invalid@invalid.com>
Newsgroups: free.it.ai.general
Subject: Re: Usare le Ai o usare un motore di ricerca?
Date: 18 Apr 2026 20:27:53 GMT
Lines: 51
Message-ID: <n4i7q8F2t4lU1@mid.individual.net>
References: <mn.842e7ea4e8b0c670.0@LeTreDiNotteVirgilio.it>
<n4forhFlh49U1@mid.individual.net> <10rvkfh$34ajd$2@dont-email.me>
Mime-Version: 1.0
Content-Type: text/plain; charset=UTF-8; format=flowed
Content-Transfer-Encoding: 8bit
X-Trace: individual.net 2H1Jx4naU+HvBB96tQlw/waFPVVmL80/M5AigbIPhqkD1GrqvR
Cancel-Lock: sha1:K3YJ8QylL+wfev5RTOAwA+SL4MY= sha256:nBHdS/hg7Z7W3yeIrq0ywnD5CY0hiv6SvcLxuEO/zNs=
User-Agent: PhoNews/3.13.3 (Android/14)
In-Reply-To: <10rvkfh$34ajd$2@dont-email.me>
Xref: news.corradoroberto.it free.it.ai.general:2156
On 18/04/26 11:56, MarioCCCP wrote:
>
>scusa la domanda ingenua : quando un utente umano, uno
>spider classico, o un'AI, visitano un sito, che ne può
>sapere il sito stesso della natura del visitatore ?
>Oltre all'IP, e ad alcune info del browser, che altre
>informazioni vengono scambiate ?
>Perché una visita di una AI non verrebbe monetizzata dai
>siti con banner al pari di una di utente o di uno spider ?
>I navigatori automatici hanno l'obbligo di dichiararsi ?
>
Secondo me qui vanno separati due piani: quello tecnico e quello economico.
Sul piano tecnico, un sito non vede solo l’IP: vede anche header come
User-Agent e Referer; inoltre il referrer può essere completo, ridotto o
assente a seconda della Referrer-Policy. Se la pagina esegue JavaScript,
può leggere anche segnali come navigator.webdriver, che indica se il
browser è sotto automazione; lato server o CDN possono poi essere usati
altri indizi, per esempio fingerprint TLS come JA4 e sistemi di JavaScript
detections per stimare se il traffico assomiglia a un browser umano, a un
browser automatizzato o a un bot.
Sul piano normativo/protocollare, i navigatori automatici non hanno un
obbligo universale e “tecnico” di dichiararsi in modo infallibile. Esiste
robots.txt, ma lo standard stesso dice che i crawler sono solo richiesti a
rispettarlo e che non è una forma di autorizzazione: quindi un bot corretto
lo segue, uno scorretto può ignorarlo. OpenAI, per esempio, documenta user
agent distinti come GPTBot, OAI-SearchBot e ChatGPT-User, con scopi diversi
e gestione separata via robots.txt.
Sul piano economico, il punto vero è che
una visita AI o bot non vale come una visita umana per la pubblicità. Google
definisce “invalid traffic” click e impression che non derivano da vero
interesse dell’utente, e nelle metriche pubblicitarie include
esplicitamente bot, spider e crawler fra i casi filtrati. Quindi il
problema non è solo “l’AI visita il sito?”, ma soprattutto “quanti utenti
reali rimanda indietro al sito?”. Cloudflare sta misurando proprio questo
con il rapporto crawl-to-refer e mostra che, per molti sistemi AI, il
contenuto consumato è molto più alto del traffico restituito ai publisher.
Quindi, in sintesi: sì, un sito può spesso distinguere in modo
probabilistico umano / browser automatizzato / bot / agente AI usando molti
segnali diversi; ma il nodo grosso per gli editori non è solo il
riconoscimento tecnico, è il fatto che l’AI tende a trattenere l’utente nel
proprio ambiente e a restituire meno traffico monetizzabile del web search
classico.
--
Posted from
PhoNews Pro for Android V.3.13.3
News.individual.net - Addio dal 30 sett 2027!! :-(