Anche se gli LLM più usati sono prodotti negli Stati Uniti (e ora anche in Cina), qualcosa si muove anche in Europa e in Italia. Numeri e risultati non sono gli stessi, certo, ma la localizzazione dei modelli per lingue diverse dall’inglese è una sfida importante.
Dopo l’arrivo di Deepseek sul mercato globale, il mondo dei modelli linguistici è entrato in fibrillazione. La prima ragione è che, a quanto risulta, il modello cinese è stato allenato a una frazione dei costi rispetto ai suoi concorrenti statunitensi, tra cui GPT di OpenAI.
La seconda è che, in mezzo alle tensioni tra Stati Uniti e Cina, aziende come OpenAI e Google stanno facendo pressioni sul governo USA perché possano continuare ad addestrare i loro modelli con materiale protetto da copyright, in nome non solo del “fair use” (che varrebbe, secondo loro, anche in questo caso) ma anche della sicurezza nazionale, in modo che il dominio in materia di AI non sia ceduto ai cinesi.
In questo scenario, l’emergere di realtà più piccole che lavorano alla creazione di modelli linguistici localizzati direttamente in altre lingue è un segnale importante, su cui vale la pena portare l’attenzione.
Perché è importante? Prima di tutto perché l’Europa sta cercando di recuperare il ritardo tecnologico nei confronti di Stati Uniti e Cina, anche attraverso la creazione di regole per uno sviluppo etico e inclusivo del digitale. Poi perché la predominanza di testi in lingua inglese per l’addestramento dei modelli implica anche una minore capacità degli output prodotti ad adattarsi a diverse lingue e diversi contesti culturali, come sottolineato anche da chi si occupa di innovazione in Italia.
Il progetto più conosciuto a livello europeo è sicuramente Mistral AI, fondata a Parigi nell’aprile 2023, ma negli ultimi anni parecchie cose hanno iniziato a muoversi anche in Italia.
Un esempio è Velvet, prodotto da Almawave in due modelli, rilasciato in open source e addestrato sul supercomputer Leonardo del CINECA. Disponibile in sei lingue europee (italiano, tedesco, spagnolo, francese, portoghese e inglese), il modello linguistico è progettato in linea con la regolamentazione europea.
Vitruvian-1, tra i più giovani LLM made in Italy, è invece prodotto dalla startup romana ASC27 e si concentra sulla logica piuttosto che sull’analisi del linguaggio. Per questo, i creatori sostengono che sia adatto in particolare per essere applicato in settori come matematica, fisica, chimica e medicina.
Minerva è stato invece sviluppato da un gruppo di ricerca dell’Università La Sapienza, guidato dal professor Roberto Navigli. Anche in questo caso il modello è stato addestrato su Leonardo, grazie alla collaborazione con il CINECA. Addestrato da zero in italiano, Minerva è anche open source.
Anche Magiq, sviluppato da My MAIA Inc. e Synapsia ha un focus particolare sulla lingua e sulle specificità italiane, elemento che lo differenzia dai modelli più generalisti.
iGenius, startup italiana che ha superato la valutazione di un miliardo di dollari, a fine 2024 ha lanciato Colosseum 355B, un nuovo modello linguistico realizzato in collaborazione con Nvidia che, secondo quanto dichiarano i creatori, supporta più di 50 lingue ed è rivolto al mondo delle imprese, con attenzione al trattamento e alla protezione dei dati.
C’è poi Lara, creato da Translated, un modello specializzato nella traduzione, che proprio sul lavoro di traduttori umani è stato addestrato. Una caratteristica interessante di Lara è che questo modello è in grado di motivare le ragioni dei suoi output.
Altri progetti sono stati sviluppati, come LLaMAntino e un modello linguistico di Fastweb, e altri ancora si apprestano ad arrivare su un mercato in continuo movimento.
Una menzione di rilievo merita sicuramente OpenEuroLLM, finanziato dall’Unione Europea con 37,4 miliardi di euro. Il progetto segue la filosofia europea di regole e trasparenza e mira soprattutto allo sviluppo di un ampio sistema pubblico europeo, in grado di porsi su un altro piano rispetto a servizi commerciali come OpenAI e Deepseek.
Scopri gli ospiti e gli artisti del Mainstage