- Tennis:Alcaraz litiga con giudice sedia 'non posso giocare così'
- Nasce una Hydrogen Valley di Ip gruppo api nel Nord-Ovest
- Pallavolo: Fabris 'movimento cresce, adesso raccogliamo frutti'
- Champions: 'Flick Heil', Uefa vieta trasferta tifosi Barcellona
- Italia peggio di Spagna e Francia, arriva il Piano salvacuore
- Sette film nelle sale, il Cinema ritrovato celebra Mastroianni
- Sci: Latemar prepara via a stagione, 16 dicembre la Coppa Europa
- Tennis: Tokyo; problema a addominali, si ritira Berrettini
- Tre date per Renato Zero a Milano, 'sarà una grande festa'
- Lukashenko, 'se la Nato ci attacca useremo armi nucleari'
- Il Papa in Belgio, gli abusi sono una vergogna, chiedo perdono
- Mattarella, pace non vuol dire sottomissione
- In Emilia-Romagna dal 7/10 la vaccinazione influenzale
- Agli European Film Academy 2024 è poker Italia
- Madrid, 'Frontex vigili contro immigrazione in acque africane'
- Mattarella, con Meloni rapporti Roma-Berlino non cambiati
- Scala: L'Orontea? Come un vernissage a Milano
- Steinmeier, Italia e Germania salde al fianco dell'Ucraina
- Bozza dl, stretta su aerei ong che cercano migranti
- Mattarella, Germania partner imprescindibile per l'Italia
- Mondiali ciclismo: Uci, 'Furrer resta grave,le gare proseguono'
- Il paradosso dei chatbot, più crescono più sbagliano
- Violenza su medici, l'arresto in flagranza in bozza dl
- Milano approva ricorso intitolazione Malpensa a Berlusconi
- Prometeia, Pil Italia avanti senza sbalzi, +0,8% nel 2024
- Borsa: l'Europa in cauto rialzo con la lente ai dati Usa
- Giansanti presidente del Comitato agricoltori europei
- La nuova vita di Damiano David, esce Silverlines
- Istat, fatturato industria -0,4% a luglio, -4,7% anno
- Pallanuoto: nasce Pro Recco Waterpolo, è del miliardario Behring
- Confartigianato, in Lombardia maggiori extra-costi energia
- Mostro Firenze, riesumati i resti di Francesco Vinci
- Borsa: Milano tenta il rialzo con il lusso, strappa Moncler
- Mattarella,qualunque persona sia al centro dell'azione sanitaria
- Confartigianato, a Pmi energia costa 11,8 miliardi in più di Ue
- Media, 5 soldati uccisi in raid israeliano in Siria
- Libano, '9 persone uccise in raid israeliano nel sud'
- Mosca, indagati 3 giornalisti stranieri per ingresso a Kursk
- MotoGp:Indonesia; Oliveira cade nelle libere, si frattura polso
- Giappone: Ishiba eletto leader partito Ldp, futuro premier
- Tennis: Pechino; Musetti al 2° turno, Bergs ko in tre set
- L'IA svela la tecnica pittorica di Raffaello nella Pala Baronci
- Borsa: Milano apre poco mossa a -0,04%
- L'euro è poco mosso in avvio a 1,1171 dollari
- Lo spread in avvio è in lieve calo a 129 punti
- Oro in lieve calo dopo nuovo massimo sopra 2.670 dollari
- Il prezzo del gas in avvio è debole e sotto quota 38 euro
- Scende ancora il prezzo del petrolio, Wti a 67,5 dollari
- Uragano Helene arriva in Florida e perde potenza, 3 morti
- Giappone: elezione presidente Ldp si decide al ballottaggio
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
R.Adler--BTB