Machine Learning

Machine Learning

Lo stage Machine Learning ha approfondito le tecniche, gli algoritmi e le applicazioni pratiche che stanno rivoluzionando il mondo dei dati e dell’intelligenza artificiale. Esperti del settore hanno esplorato le ultime innovazioni, dai modelli predittivi all’AI generativa, passando per l’ottimizzazione degli algoritmi e l’interpretabilità dei dati. Un’occasione per scoprire come il machine learning stia trasformando industria, ricerca e business.


Hosting della sala

Roberto Digennaro
Roberto Digennaro
Senior Data Analyst
Emanuele Arosio
Emanuele Arosio
CEO & Founder
DataRank
4 GIUGNO
5 GIUGNO
6 GIUGNO
04 giu 08:30
05 giu 08:30
06 giu 08:30
04 giu 11:50 - 12:30
40 min
The evolution of AI has largely been shaped by advancements in compute power. However, an equally critical factor—memory—has emerged as a defining bottleneck for the next generation of AI infrastructure. While GPUs and TPUs have seen exponential improvements in FLOPS, memory bandwidth and capacity have struggled to keep pace. Today, training and inference at scale are constrained as much by memory limitations as by compute. The financial implications are staggering: High-Bandwidth Memory (HBM) now costs nearly as much as compute, and memory bandwidth is one of the leading constraints in large-scale AI deployments. The infrastructure of tomorrow must be designed with memory as a first-class consideration. This keynote explores the increasing role of memory in AI workloads, real-world examples of memory bottlenecks, and strategies for designing AI infrastructure that balances compute and memory effectively.
04 giu 12:40 - 13:20
40 min
Un chatbot AI su misura, che conosce esattamente ciò di cui avete bisogno perché è addestrato sui vostri dati. Abbiamo implementato MiniPilot, ed è open-source. MiniPilot non è solo un’applicazione, è un’architettura potente per costruire chatbot AI personalizzati. Combina la velocità di Redis per il retrieval vettoriale con la potenza di modelli come ChatGPT, creando un sistema scalabile, veloce e facile da usare. AI generativa e Redis stanno rivoluzionando il knowledge management, e MiniPilot è al centro di questa evoluzione.
04 giu 14:00 - 14:40
40 min
Oggi, parlare di intelligenza artificiale sembra significare automaticamente parlare di LLM multimodali. Complici l’hype e una certa inesperienza diffusa, questi modelli ultra-potenti vengono spesso impiegati anche per task semplici, dove soluzioni molto più leggere (ed efficienti) sarebbero più che sufficienti. In questo intervento analizzeremo insieme come integrare l’AI a livello di prodotto in modo pragmatico, valutando quando ha senso scomodare un LLM e quando, invece, modelli più piccoli portano vantaggi più grandi in termini di costi, prestazioni e sostenibilità tecnica.
04 giu 14:50 - 15:30
40 min
Internet is the single biggest barrier to digital education access and AI penetration. I will talk about how we are providing AI teachers running on complete LLMs that work without the Internet. Our AI teachers have upskilled students of 13 universities, are empowering learners in 4 continents, and in 2025 are working with 2 national governments to upskill their nation. The talk will discuss the path of this innovation and education design breakthroughs. It will also present a technical explanation of how to run AI without active Internet connections to access over 3 billion people who still do not use mobile Internet (Telemedia, 2023).
04 giu 15:40 - 16:20
40 min
In the realm of edge AI, the conventional wisdom suggests that smaller models naturally translate to faster, more efficient performance on resource-constrained devices. However, my talk will challenge this assumption by unveiling the "size-performance paradox": the reality that choosing a smaller model doesn’t always yield the expected improvements in speed, energy consumption, or real-time reliability. I’ll demonstrate how hardware-aware deep learning compression and careful optimization balance model size with real-world performance, sharing practical insights and case studies for deploying AI on resource-constrained devices. Participants will gain a comprehensive understanding of how to effectively tailor AI models for edge deployment.

Early Bird Expo: approfitta dell'offerta attiva e assicurati il tuo spazio al WMF 2026