Davide '+mala' Eynard
See: @mala@fosstodon.org
Sessions
Dopo aver smontato l'hype, è il momento di sporcarsi le mani con la tecnologia. Questo talk è un'immersione tecnica "sotto il cofano" dei moderni LLM. Partiremo dai concetti fondamentali del Deep Learning per capire come una macchina "apprende". Esploreremo come il linguaggio viene trasformato in vettori matematici e analizzeremo le innovazioni architetturali che hanno reso possibili i modelli attuali. Infine, vedremo perché persino un modello così avanzato ha dei limiti e come il concetto di "Agente" emerga come passo logico successivo per renderlo davvero operativo. Un percorso tecnico per capire cosa c'è dietro la sigla "LLM" e prepararsi ad un lab pratico. Capire questa tecnologia è il primo passo per smettere di subirla e iniziare a plasmarla secondo le nostre esigenze, non quelle di una corporation.
Paragonare un modello di linguaggio "open" a un servizio AI è un confronto non equo. Nel primo caso si tratta di semplici modelli, la cui conoscenza è limitata dai dati che hanno visto in fase di training. Nel secondo compaiono invece sistemi complessi, che fanno uso di strumenti aggiuntivi per risolvere problemi specifici.
Nel corso degli ultimi mesi, la diffusione di framework open source per la creazione di agenti basati su LLM e quella di strumenti compatibili con il protocollo MCP hanno offerto una possiblità di ridurre questa differenza. Al momento, però, il trend sembra più quello di rilasciare codice "in the wild" sperando che qualcuno ci faccia qualcosa, piuttosto che investire in soluzioni pratiche che mostrino come usare agenti open source, modelli locali, e strumenti in grado di interoperare con loro in modo efficace.
Lo scopo di questo talk è mostrare sia limiti che potenzialità degli agenti open source attraverso una serie di esempi, esperienze... e clamorosi fallimenti. Perché AI, agenti e MCP rimangono buzzword in bocca a chi desidera semplicemente venderle, ma possono diventare tecnologie utili nel momento in cui si riesce a prenderne possesso e a usarle per risolvere dei problemi pratici.
Dalle parole ai fatti: in queste due ore di laboratorio pratico, abbandoniamo le slide per mettere le mani sul codice. Partiremo installando ed eseguendo un Language Model direttamente sui nostri portatili, usando strumenti open source come Ollama, LM Studio, llama.cpp o LocalAI, per capire cosa significa avere il pieno controllo del modello. Successivamente, definiremo degli "strumenti" (tools) in Python e scriveremo il codice per il nostro primo, semplice Agente AI. L'obiettivo è fargli risolvere un problema specifico di vostra scelta usando gli strumenti che gli abbiamo fornito, replicando in piccolo la logica delle soluzioni più complesse. Un'esperienza 100% a controllo nostro per dimostrare che è possibile costruire assistenti AI potenti e personalizzati, senza dipendere da servizi cloud chiusi e desiderosi dei nostri dati.