La raccolta dei dati in tempo reale da parte degli strumenti che raccolgono i dati dell'intelligenza artificiale svaluta i contenuti più velocemente rispetto ai bot di addestramento tradizionali. Mentre i bot di addestramento raccolgono i dati in massa per lo sviluppo di modelli a lungo termine, gli strumenti di raccolta dei dati svalutano immediatamente i dati, fornendo riepiloghi in tempo reale agli utenti. Questa concorrenza diretta surclassa i siti originali, portando ad un calo del 96% osservato nel traffico delle visite ai siti web effettuate da fonti esterne e al crollo dei modelli di reddito tradizionali basati sulla pubblicità.
Il web scraping non controllato infligge pesanti oneri tecnici e finanziari alle infrastrutture del settore dell'editoria. I bot automatizzati utilizzano enormi risorse di CDN e server senza coinvolgere in alcun modo il pubblico, con un conseguente aumento dei costi operativi e una riduzione delle performance dei siti per gli utenti reali. Un cliente di Akamai ha recuperato il 97% del volume delle richieste utilizzando il "tarpit", che consente agli editori di ostacolare questi bot.
La mancanza di una corretta attribuzione nelle risposte generate dall'intelligenza artificiale riduce l'autorità dei brand e la fiducia del pubblico. Le piattaforme basate sull'intelligenza artificiale, spesso, riutilizzano i contenuti proprietari senza crediti chiari, pertanto, gli utenti selezionano le fonti originali solo nell'1% del tempo. Questa interruzione del rapporto tra creatori di contenuti e lettori richiede l'adozione di appositi sistemi, come l'RSL (Really Simple Licensing), per garantire che l'utilizzo dei contenuti rimanga trasparente e autorizzato.
Il blocco globale dei bot basati sull'AI può inavvertitamente soffocare la monetizzazione e le opportunità di crescita future. Rifiutare categoricamente tutto il traffico automatizzato può impedire di instaurare partnership o accordi di licenza vantaggiosi con le aziende nel settore dell'intelligenza artificiale che sono disposte a pagare per ottenere dati di alta qualità. Gli editori devono invece utilizzare una visibilità granulare per identificare gli agenti autorizzati e concedere i relativi permessi, applicando in modo selettivo i controlli degli accessi agli scraper dannosi.
I livelli emergenti di trust-and-commerce trasformano lo scraping non autorizzato in un flusso di ricavi sostenibile. Integrando appositi strumenti di verifica delle identità come KYA (Know Your Agent), gli editori possono verificare l'intento di ogni bot e applicare un modello economico di tipo pay-per-use. Questo cambiamento trasforma la domanda automatizzata in una transazione responsabile, assicurando alle organizzazioni nel settore dei media di venire equamente compensate per la proprietà intellettuale, che promuove l'economia dell'intelligenza artificiale.