Architettura Transformer: meccanismi di attenzione, tokenizzazione, embedding e funzionamento dei Large Language Models.
Confronto modelli principali: GPT, Claude, BERT, Llama - differenze, performance, casi d'uso e criteri di selezione.
Training e ottimizzazione: pre-training vs fine-tuning, prompt engineering avanzato, in-context learning.
Retrieval-Augmented Generation (RAG): principi architetturali, scenari di applicazione, design pattern.
Valutazione: metriche di qualità, benchmarking, bias detection, trade-off costi-performance.
Cenni implementativi: API, vector databases, stack tecnologico.
Governance tecnica e considerazioni su scalabilità, sicurezza, deployment.