È un percorso formativo avanzato che unisce teoria e pratica nello sviluppo di sistemi di Intelligenza Artificiale, dagli algoritmi fondamentali agli agenti autonomi in produzione.
Attraverso un approccio hands-on e orientato ai casi d’uso reali, i partecipanti sviluppano competenze nel:
Al termine del percorso, i partecipanti saranno in grado di comprendere i fondamenti algoritmici del deep learning e le principali architetture neurali, analizzare e utilizzare Large Language Model e tecniche generative, applicare prompt engineering avanzato, RAG e fine-tuning su casi reali, progettare e sviluppare agenti AI autonomi con capacità di ragionamento e uso di tool, costruire sistemi multi-agente orchestrati e deployarli in produzione con guardrails, testing e monitoraggio adeguati.
Il corso ha una durata di 5 giorni
Dal programma si deduce che il corso è rivolto a:
| Giorno | Titolo | Focus |
| 1 | Fondamenti di ML e Deep Learning | Basi algoritmiche, reti neurali, CNN, RNN, metriche di valutazione |
| 2 | Transformer, LLM e AI Generativa | Architettura Transformer, LLM, tokenizzazione, RLHF, modelli di diffusione |
| 3 | Prompt Engineering, RAG e Fine-Tuning | Tecniche avanzate di prompting, RAG, vector DB, fine-tuning, API integration |
| 4 | AI Agent: Architetture e Framework | Agenti autonomi, ReAct, tool use, multi-agent systems, framework (LangGraph, CrewAI) |
| 5 | Agenti in Produzione e Progetto Finale | Deployment, orchestrazione, guardrails, testing, progetto capstone di gruppo |
Basi algoritmiche, architetture di rete neurale e metriche di valutazione dei modelli.
| Orario | Sessione | Dettagli |
| 09:00 – 09:30 | Apertura e Setup Tecnico | Presentazioni, verifica ambiente (Colab/Jupyter/VS Code), struttura del corso e della settimana |
| 09:30 – 10:30 | Fondamenti di Machine Learning | Supervised vs. unsupervised vs. reinforcement learning. Funzioni di costo, gradient descent, SGD, backpropagation. Bias-variance tradeoff, regolarizzazione (L1/L2, dropout) |
| Pausa caffè (10:30 – 10:45) | ||
| 10:45 – 12:00 | Reti Neurali e Deep Learning | Perceptron, reti feedforward, funzioni di attivazione (ReLU, sigmoid, softmax). CNN: convoluzione, pooling, feature maps, transfer learning. RNN, LSTM, GRU: modellazione sequenziale |
| Pausa pranzo (12:00 – 13:30) | ||
| 13:30 – 14:30 | Metriche e Valutazione Modelli | Accuracy, precision, recall, F1-score, AUC-ROC. Cross-validation, confusion matrix. Overfitting detection e strategie di mitigazione |
| 14:30 – 15:30 | Lab 1: Training di un Modello ML | Hands-on con scikit-learn e PyTorch: classificatore su dataset reale, pipeline di preprocessing, hyperparameter tuning, valutazione e visualizzazione risultati |
| Pausa caffè (15:30 – 15:45) | ||
| 15:45 – 16:45 | Panoramica dell’Ecosistema AI | Stato dell’arte: modelli fondazionali, AI generativa, agenti. Open source vs. proprietario. Hugging Face, model hub, benchmark (MMLU, HumanEval) |
| 16:45 – 17:00 | Riepilogo e Q&A | Sintesi della giornata, domande, preview del Giorno 2 |
Architettura Transformer, funzionamento dei Large Language Model, tecniche di allineamento e modelli generativi.
| Orario | Sessione | Dettagli |
| 09:00 – 09:15 | Recap Giorno 1 | Riepilogo concetti chiave, chiarimenti |
| 09:15 – 10:30 | Architettura Transformer | Self-attention, multi-head attention, positional encoding. Architettura encoder-decoder. Scaling laws, emergent abilities. Da BERT a GPT: evoluzione e varianti |
| Pausa caffè (10:30 – 10:45) | ||
| 10:45 – 12:00 | Large Language Model: Sotto il Cofano | Tokenizzazione (BPE, SentencePiece, tiktoken). Pre-training (next token prediction), instruction tuning. RLHF, DPO, Constitutional AI. Context window, KV cache, temperature, top-k/top-p sampling |
| Pausa pranzo (12:00 – 13:30) | ||
| 13:30 – 14:30 | Modelli Generativi Multimodali | Modelli di diffusione (Stable Diffusion, DALL-E): forward/reverse process. Vision-Language Model (GPT-4V, Claude Vision). Generazione video, audio e codice. Embedding multimodali (CLIP) |
| 14:30 – 15:30 | Lab 2: Esplorare i Transformer | Hands-on con Hugging Face Transformers: caricamento modelli, tokenizzazione, inference. Visualizzazione attention maps. Confronto modelli su task specifici |
| Pausa caffè (15:30 – 15:45) | ||
| 15:45 – 16:45 | Confronto Modelli e Benchmark | Modelli open-source (Llama, Mistral, Gemma) vs. proprietari (GPT-4, Claude, Gemini). Criteri di scelta: performance, costo, latenza, privacy. Benchmark e leaderboard |
| 16:45 – 17:00 | Riepilogo e Q&A | Sintesi, domande, preview del Giorno 3 |
Tecniche avanzate di interazione con i modelli, retrieval-augmented generation e personalizzazione.
| Orario | Sessione | Dettagli |
| 09:00 – 09:15 | Recap Giorno 2 | Riepilogo architetture e modelli, chiarimenti |
| 09:15 – 10:30 | Prompt Engineering Avanzato | Zero-shot, few-shot, chain-of-thought, tree-of-thought, self-consistency. System prompt design, structured output (JSON/XML mode). Tecniche di grounding, riduzione hallucination, prompt chaining |
| Pausa caffè (10:30 – 10:45) | ||
| 10:45 – 12:00 | Lab 3: API Integration e Prompting | Chiamate API OpenAI/Anthropic con Python (SDK). Gestione token, streaming, error handling. Function calling / tool use. Costruzione di un assistente conversazionale con memoria |
| Pausa pranzo (12:00 – 13:30) | ||
| 13:30 – 14:30 | RAG: Architettura e Implementazione | Retrieval-Augmented Generation: perché e quando. Embedding models (OpenAI, Cohere, open-source). Vector database: ChromaDB, Pinecone, Weaviate, pgvector. Strategie di chunking, overlap, metadata filtering |
| 14:30 – 15:30 | Lab 4: Costruire una Pipeline RAG | Implementazione end-to-end: ingestione documenti (PDF, web), chunking, embedding, indexing, retrieval, generation. Valutazione qualità retrieval (recall@k, MRR). Hybrid search (keyword + semantic) |
| Pausa caffè (15:30 – 15:45) | ||
| 15:45 – 16:45 | Fine-Tuning e Specializzazione | Quando fare fine-tuning vs. RAG vs. prompt engineering (matrice decisionale). LoRA, QLoRA: principi e implementazione. Dataset preparation, training loop, evaluation. Distillazione e quantizzazione (GGUF, GPTQ, AWQ) |
| 16:45 – 17:00 | Riepilogo e Q&A | Sintesi, domande, intro al mondo degli agenti (Giorno 4) |
Progettazione e sviluppo di agenti AI autonomi: pattern architetturali, framework, tool use e sistemi multi-agente.
| Orario | Sessione | Dettagli |
| 09:00 – 09:15 | Recap e Intro Agenti | Riepilogo Giorno 3. Cos’è un agente AI? Da chatbot a sistemi autonomi: il cambio di paradigma |
| 09:15 – 10:30 | Architetture di Agenti AI | Tassonomia: agenti reattivi, deliberativi, ibridi. Pattern ReAct (Reasoning + Acting). Planning: task decomposition, chain-of-thought planning, reflection. Ciclo Percezione → Ragionamento → Azione → Osservazione. Memoria: short-term (context), long-term (vector store), episodica |
| Pausa caffè (10:30 – 10:45) | ||
| 10:45 – 12:00 | Tool Use e Function Calling | Principi del tool use: definizione, binding, esecuzione. Function calling con OpenAI e Anthropic API. Progettazione di tool efficaci: schema design, error handling, sandboxing. Tool composability e catene di azioni. MCP (Model Context Protocol): architettura e integrazione |
| Pausa pranzo (12:00 – 13:30) | ||
| 13:30 – 14:30 | Framework per Agenti | LangGraph: grafi stateful, nodi, edge condizionali, cicli. CrewAI: ruoli, task, processi sequenziali e gerarchici. AutoGen: agenti conversazionali multi-turno. Confronto framework: quando usare quale |
| 14:30 – 15:30 | Lab 5: Costruire un Agente ReAct | Implementazione da zero di un agente ReAct con tool use. Tool personalizzati: web search, database query, file system, API esterne. Gestione del loop agente, stop conditions, error recovery. Logging e tracing del ragionamento |
| Pausa caffè (15:30 – 15:45) | ||
| 15:45 – 16:45 | Sistemi Multi-Agente | Architetture: supervisor, peer-to-peer, gerarchica. Comunicazione inter-agente: message passing, shared state, blackboard. Specializzazione dei ruoli: researcher, coder, reviewer, planner. Coordinamento, delega e risoluzione conflitti. Hands-on: setup di un team multi-agente con CrewAI |
| 16:45 – 17:00 | Riepilogo e Q&A | Sintesi pattern agentici, domande, preparazione progetto finale |
Deployment, sicurezza, testing e monitoraggio di agenti AI. Progetto di gruppo per consolidare tutte le competenze della settimana.
| Orario | Sessione | Dettagli |
| 09:00 – 09:15 | Recap e Obiettivi Giorno 5 | Riepilogo Giorno 4, piano della giornata e del progetto capstone |
| 09:15 – 10:30 | Agenti in Produzione: MLOps e Infrastruttura | Architetture di deployment: containerizzazione, API gateway, load balancing. Orchestrazione: gestione stato, retry, timeout, circuit breaker. Costi e ottimizzazione: caching intelligente, routing tra modelli, rate limiting. Observability: tracing distribuito, logging strutturato (LangSmith, Arize) |
| Pausa caffè (10:30 – 10:45) | ||
| 10:45 – 12:00 | Sicurezza, Guardrails e Testing | Prompt injection: tipologie (direct, indirect) e contromisure. Guardrails: input/output validation, content filtering, PII detection. Sandboxing dell’esecuzione codice e delle azioni dell’agente. Testing: unit test per tool, integration test per pipeline, eval framework. Red teaming e adversarial testing per agenti |
| Pausa pranzo (12:00 – 13:30) | ||
| 13:30 – 14:00 | Etica, Normativa e Responsabilità | AI Act europeo: classificazione rischio e obblighi. Bias algoritmico, fairness, trasparenza. Responsabilità legale degli agenti autonomi. Best practice per AI responsabile |
| 14:00 – 15:30 | Lab 6: Progetto Capstone | Lavoro di gruppo: progettare e implementare un sistema multi-agente completo. Scenari proposti: assistente di ricerca autonomo, pipeline di analisi dati, sistema di customer support, code review automatizzato. Requisiti: almeno 2 agenti, tool use, RAG, guardrails |
| Pausa caffè (15:30 – 15:45) | ||
| 15:45 – 16:30 | Presentazioni dei Progetti | Demo dal vivo dei progetti di gruppo. Feedback tecnico da parte del docente e dei colleghi. Discussione su architetture, trade-off e possibili evoluzioni |
| 16:30 – 17:00 | Chiusura e Roadmap | Sintesi della settimana, roadmap di approfondimento individuale. Risorse avanzate: paper, corsi, community. Consegna attestati di completamento |
Il corso è erogato in italiano
Il materiale didattico comprende:
È previsto un attestato di partecipazione che verrà rilasciato a pagamento avvenuto ed al termine del corso