Corso AI Innovation Manager – Unimarconi
Prof. Raniero Romagnoli
Appunti, Immagini e Slide del corso. Alcune di queste informazioni sono state aggiornate/modificate o generate con strumenti di AI
quali ChatGPT e NotebookLM. In particolare le immagini modello slide di riepilogo sono state prodotte con lo strumento di
NoteBookLM di Google. 1
Cos’è l’Intelligenza Artificiale (AI)
L'AI non è solo robotica distopica come nei film (Terminator, Ex Machina), ma un insieme di tecnologie mirate a creare sistemi intelligenti,
autonomi e di supporto all'uomo. Oggi è già parte della vita quotidiana tramite assistenti vocali (Alexa, Siri), chatbot (ChatGPT) e applicazioni
in vari settori.
L'AI sta vivendo una Quarta Rivoluzione Industriale, trainata da avanzamenti tecnologici, dati e capitali. Nonostante i rischi, è vista come
strumento per risolvere problemi complessi e migliorare molteplici aspetti della società. La sfida futura sarà governarne lo sviluppo in modo
etico, sostenibile e vantaggioso per l'umanità. 2
Tipologie di AI
1. Artificial Narrow Intelligence (ANI) – AI specializzata in compiti specifici (es. riconoscimento vocale, traduzione).
2. Artificial General Intelligence (AGI) – AI in grado di generalizzare e svolgere qualsiasi compito umano (obiettivo di aziende come
OpenAI, Google).
3. Artificial Super Intelligence (ASI) – IPotenziale futura AI che supererebbe l'intelligenza umana in ogni ambito, tema etico e di
controllo.
Storia e tappe fondamentali
1951: Alan Turing introduce il concetto di "macchine pensanti".
• 3
1956: Conferenza di Dartmouth, nascita ufficiale dell'AI come disciplina. Ogni aspetto dell’apprendimento o qualsiasi altra
• caratteristica dell’intelligenza può, in linea di principio, essere descritto in modo così preciso che si può costruire una macchina per
simularlo.
Viene come output dall’impulso degli scienziati raccolti una estate intera.
1957-62: Primi modelli di reti neurali (perceptron).
• 1970-80: Primi "AI inverni" – riduzione di fondi e fiducia dopo aspettative troppo alte.
• 1997: IBM Deep Blue batte il campione di scacchi Garry Kasparov.
• 2011: IBM Watson vince a Jeopardy!, dimostrando capacità di comprensione linguistica.
• 2016-17: DeepMind AlphaGo batte il campione di Go Lee Sedol; nascono AlphaZero e i transformer (base delle AI generative).
• 2022-oggi: Esplosione delle AI generative (ChatGPT, Gemini, Mistral) e grandi investimenti.
•
Successi e capacità attuali
Computer vision: Raggiunta "parità umana" in riconoscimento oggetti (ImageNet).
• Elaborazione linguaggio: Modelli come GPT-4 superano o eguagliano le performance umane in comprensione testuale (SQuAD,
• traduzione).
Generazione contenuti: Testi, immagini, video creati da AI (GAN, DALL-E, Midjourney).
• 4
Motivi dell’esplosione recente dell’AI
1. Algoritmi avanzati: Architetture transformer, reti neurali profonde.
2. Big Data: Disponibilità di enormi dataset (testi, codice, immagini).
3. Potenza di calcolo: Supercomputer (es. Leonardo in Italia, Condor Galaxy) e GPU.
4. Investimenti massicci: Aziende come OpenAI (Microsoft), Google, Meta, Anthropic finanziate con miliardi di dollari.
5. Domanda digitale: Trasformazione digitale globale e adozione di servizi basati su AI. 5
Sfide e preoccupazioni
Etica e controllo: Rischio di super-intelligenza non allineata agli interessi umani.
• Sostenibilità energetica: Consumo elevato di risorse per addestramento e inferenza.
• Proprietà intellettuale: Utilizzo di dati protetti per l'addestramento.
• Impatto sociale: Disinformazione (deepfake), perdita di posti di lavoro, dipendenza tecnologica.
•
Situazione globale e protagonisti
USA: Leader con OpenAI, Google, Anthropic, Meta.
• Europa: Presenza con Mistral (Francia), Aleph Alpha (Germania), Cineca/Leonardo (Italia).
• Medio Oriente/Asia: Grandi investimenti (G42, UAE, Giappone, Israele).
• Modelli open source: Lama (Meta), Mistral, contributi comunitari.
• 6
1. Definizioni di Intelligenza Artificiale (AI)
Intelligenza umana: Difficile da definire; una definizione ampiamente accettata include capacità come ragionamento,
• pianificazione, risoluzione di problemi, apprendimento dall’esperienza.
AI come disciplina multidisciplinare: Combina informatica, matematica, neuroscienze, psicologia, fisica.
• AI Act UE (2024): Definisce l'AI come un sistema basato su macchine che opera con autonomia, generando output (previsioni,
• contenuti, raccomandazioni) che influenzano il mondo fisico o digitale. Sistema basato su macchine, disegnato per operare a vari
livelli di autonomia e che a partire da un input, può generare output di diversa natura (come predizioni, contenuti, raccomandazioni
ed altro).
Due approcci storici:
• AI Simbolica: Basata su logica, regole e conoscenza umana (es. ontologie, sistemi esperti). Esistono algoritmi sempre più
o efficienti che consentono di interrogare tramite descrizioni formali un ragionamento sui dati. Gli esperti di dominio hanno
impostato la conoscenza, consentendo di ragionare in maniera logica ai sistemi, basandosi su regole e asserzioni. 7
Esempi: diagnosi mediche => vengono fatte in base a protocolli, nati da alberi decisionali che sono rappresentate come
ontologie.
AI Connessionista (Machine Learning): Impara dai dati, estraendo regole latenti.
o
2. Machine Learning (ML)
Definizione (Samuel, 1959): Campo di studio che dà ai computer la capacità di imparare senza essere esplicitamente programmati.
• Differenza con programmazione tradizionale:
• Programmazione: algoritmo deterministico, input → output fisso.
o ML: algoritmo apprende da dataset (input + output associati) e produce un modello che fa predizioni non deterministiche.
o 8
Esempi di applicazioni:
• OCR, spam filter, sistemi di raccomandazione (Amazon, Netflix, Spotify), social media, assistenti vocali.
o
Machine Learning
• è un sottoinsieme della AI (branca connessionist): sistemi che hanno la capacità di imparare senza essere specificatamente
o programmati per quello. Il processo per cui una macchina è capace di imparare si chiama training. Preso un set di dati, un
algoritmo in questa fase si crea un modello. I primi esempi di machine learning sono il riconoscimento dei caratteri/ocr 9
(scansione di un documento e riconoscimento caratteri). Anche gli spam-filter hanno al loro interno algoritmi di machine
learning. I social o gli e-commerce usano sistemi di machine learning per decidere cosa farci vedere.
3. Reti Neurali e Deep Learning
Neurone artificiale: Modello matematico ispirato al neurone biologico, con input, pesi, funzione di attivazione e soglia.
• Reti neurali: Insiemi di neuroni organizzati in strati; esempi: riconoscimento immagini (cane vs. gatto).
• Deep Learning: Reti neurali con molti strati; ha avuto una rinascita grazie a Big Data e potenza di calcolo.
• Reinforcement Learning: Apprendimento per tentativi ed errori, con premi/penalità (es. giochi come AlphaGo).
• 10
4. Importanza e Tipologie di Dati
I dati sono il “petrolio” dell’AI.
• Tipologie:
• 1. Strutturati: Schema fisso (tabelle, database), facile da interrogare (SQL). Esempi: database relazionali, fogli Excel, record
finanziari.
2. Non strutturati: Nessuno schema predefinito (testi, immagini, audio, video). Esempi: social media, email, risonanze
magnetiche. 11
3. Semistrutturati: Schema flessibile, gerarchico (JSON, XML, HTML, log file). Esempi: file di configurazione, pagine web.
5. Preparazione del Dataset
Feature: Proprietà misurabili degli oggetti da analizzare (es. peso, lunghezza, prezzo).
• Qualità del dato: Fondamentale per modelli accurati.
• Divisione del dataset:
• Training set (es. 70-80%): Per addestrare il modello.
o Validation set (es. 10-15%): Per ottimizzare i parametri (iperparametri).
o Test set (es. 10-15%): Per valutare le prestazioni finali.
o
Fasi di preparazione:
• 1. Raccolta e analisi.
2. Pulizia: Rimozione dati incompleti o errati.
3. Feature engineering: Selezione/creazione di attributi rilevanti.
4. Trasformazione e normalizzazione (es. formati di data).
5. Aumento dati: Creazione di dati sintetici se il dataset è piccolo.
6. Annotazione (labeling): Assegnazione di etichette (es. “cane”, “gatto” per immagini).
Checklist per la qualità:
• Rappresentatività del problema.
o Coinvolgimento degli utenti di business.
o Quantità sufficiente di dati.
o 12
Condivisione e separazione tra team (training/test non devono sovrapporsi).
o
Machine Learning
Introduzione alle principali famiglie di algoritmi di Machine Learning (Apprendimento Automatico), con esempi pratici e metodi per
valutarne l'efficacia. 13
14
1. Le Tre Grandi Famiglie di Algoritmi
Il testo si concentra principalmente su due famiglie, accennando a una terza:
Apprendimento Supervisionato (Supervised Learning): Gli algoritmi apprendono da un dataset che contiene coppie input-output.
• Servono principalmente per:
La classificazione è una tipologia di apprendimento supervisionato in cui l'algoritmo impara a categorizzare i dati in classi
o predefinite. Il processo si basa sull'analisi di caratteristiche (features) estratte dall'input per determinare l'appartenenza a un
gruppo specifico. 15
Riconoscimento di oggetti in immagini: L'algoritmo analizza pattern di pixel e forme per assegnare un'etichetta
▪ semantica. Ad esempio, nel settore della guida autonoma, il sistema deve distinguere in tempo reale tra "pedone",
"veicolo" o "segnale stradale".
Rilevamento di frodi: In ambito finanziario, i modelli analizzano le transazioni bancarie confrontandole con lo storico
▪ dell'utente. Se una transazione presenta anomalie (es. importo insolito o localizzazione geografica distante), viene
classificata come "sospetta" o "fraudolenta" per attivare il blocco preventivo.
Filtri antispam: È l'applicazione classica della classificazione binaria del testo. Analizzando parole chiave, metadati
▪ dell'header e la reputazione del mittente, il sistema etichetta ogni email in arrivo come "spam" o "non spam" (ham).
Tipologie principali:
Binaria: Quando le categorie sono solo due (es. Sì/No, Vero/Falso).
▪ Multiclasse: Quando l'input può appartenere a una sola tra tre o più categorie (es. classificare un frutto come "mela",
▪ "pera" o "arancia").
Multietichetta: Quando a un singolo input possono essere assegnate più categorie contemporaneamente (es. un
▪ articolo di cronaca classificato sia come "Politica" che come "Economia").
La regressione è una tecnica di apprendimento supervisionato utilizzata per stimare la relazione tra variabili e prevedere
o un output numerico continuo, anziché una categoria discreta. L'obiettivo è minimizzare l'errore tra il valore predetto dal
modello e quello reale.
Previsioni meteo: I modelli di regressione elaborano variabili storiche e in tempo reale (come pressione atmosferica,
▪ umidità e velocità del vento) per stimare valori precisi, come la temperatura massima prevista per la giornata o i
millimetri di pioggia attesi in una determinata area.
Prezzi degli immobili: In questo scenario, l'algoritmo analizza le caratteristiche di una proprietà (metratura, numero di
▪ stanze, anno di costruzione, vicinanza ai servizi) per calcolare il probabile valore di mercato espresso in valuta. È uno
degli esempi più comuni per spiegare la regressione lineare.
Analisi delle tendenze economiche: Viene utilizzata per prevedere l'andamento del PIL, le fluttuazioni dei prezzi delle
▪ azioni o il valore delle vendite future di un'azienda in base agli investimenti in marketing e ai dati storici di consumo. 16
Caratteristiche distintive:
Output Quantitativo: A differenza della classificazione (che risponde a "Cos'è?"), la regressione risponde a domande
▪ come "Quanto?" o "Che valore avrà?".
Relazione tra variabili: Il modello cerca di identificare come il cambiamento di una variabile indipendente (es. i metri
▪ quadri) influenzi direttamente la variabile dipendente (es. il prezzo).
Algoritmi comuni: Tra i più diffusi troviamo la Regressione Lineare (per relazioni semplici), la Regressione
▪ Polinomiale (per relazioni curve) e i Random Forest Regressor (per dati complessi).
Apprendimento Non Supervisionato (Unsupervised Learning): Gli algoritmi trovano pattern o strutture nascoste in
• dati senza etichette predefinite. I task principali sono:
Clustering: Questa tecnica di apprendimento non supervisionato analizza un set di dati per identificare pattern nascosti
o e raggruppare gli elementi in "cluster" basati sulla loro somiglianza intrinseca.
Segmentazione clienti e analisi di mercato: Le aziende utilizzano il clustering per suddividere il database utenti
▪ in gruppi con comportamenti d'acquisto simili, permettendo campagne di marketing personalizzate.
Diagnosi medica: In bioinformatica, viene impiegato per raggruppare pazienti con profili genetici o sintomi
▪ analoghi, aiutando a identificare nuove sottocategorie di malattie o a personalizzare i protocolli terapeutici.
Organizzazione di dati: Utile per categorizzare automaticamente grandi volumi di documenti, immagini o notizie
▪ che non possiedono etichette pregresse.
Riduzione della Dimensionalità: Consiste nel trasformare dati complessi (con molte variabili o "dimensioni") in
o una rappresentazione semplificata con meno variabili, cercando di perdere la minor quantità possibile di informazioni
rilevanti.
Efficienza e Visualizzazione: Tecniche come la PCA (Principal Component Analysis) permettono di proiettare
▪ dati multidimensionali in grafici 2D o 3D, rendendo comprensibili strutture di dati altrimenti impossibili da
visualizzare. 17
Compressione e Deep Learning: Gli Autoencoder (reti neurali specifiche) comprimono l'input in uno spazio
▪ latente ridotto per eliminare il "rumore" di fondo, migliorando le prestazioni di altri algoritmi e riducendo i costi
computazionali.
Pre-elaborazione: Viene spesso utilizzata prima della classificazione o della regressione per selezionare solo le
▪ caratteristiche (features) davvero significative, evitando il problema della "maledizione della dimensionalità".
Apprendimento per Rinforzo (Reinforcement Learning - solo accennato): Usato per addestrare "agenti" (es: robot, veicoli
• autonomi, sistemi di gioco) che apprendono tramite prova, errore e ricompensa.
2. Esempi di Algoritmi Comuni
Algoritmi Supervisionati
• In questi modelli, l'algoritmo impara da un set di dati già etichettato (input + risposta corretta).
Regressione Lineare, Polinomiale, Lasso e Ridge: La Lineare cerca la retta che meglio approssima i dati; la Polinomiale usa
o curve per relazioni più complesse. Lasso e Ridge sono varianti che aggiungono una "penalità" per evitare il overfitting (quando
il modello impara troppo a memoria i dati di addestramento), semplificando il modello.
Regressione Logistica: Nonostante il nome, è un algoritmo di classificazione. Calcola la probabilità che un input appartenga a
o una di due classi (es. Malato/Sano) usando una funzione sigmoide.
Alberi Decisionali: Creano una struttura a "mappa di decisioni" (se X > 10, allora vai a destra). Sono facili da interpretare perché
o mimano il ragionamento umano.
Support Vector Machines (SVM): Cercano di tracciare il "confine" (iperpiano) ottimale che separa le classi nello spazio,
o massimizzando la distanza tra i punti più vicini di ogni categoria.
Reti Neurali: Ispirate al cervello umano, sono composte da strati di "neuroni" artificiali. Sono estremamente potenti per dati
o complessi (immagini, voce), ma richiedono molta potenza di calcolo.
Algoritmi Non Supervisionati
• 18
Questi modelli lavorano su dati non etichettati, cercando strutture o relazioni nascoste in autonomia.
K-Means, Clustering Gerarchico e DBSCAN: K-Means divide i dati in "K" gruppi basandosi sulla distanza dai centri;
o il Gerarchico crea una struttura ad albero (dendrogramma) di gruppi nidificati; DBSCAN raggruppa i punti in base alla densità,
identificando efficacemente gli outlier (punti isolati/rumore).
Gaussian Mixture Models (GMM): Una forma avanzata di clustering che assume che i dati siano composti da diverse
o distribuzioni "a campana" (Gaussiane), permettendo a un punto di appartenere a un gruppo con una certa probabilità.
PCA (Principal Component Analysis): Identifica le direzioni (componenti) lungo le quali i dati variano di più, permettendo di
o proiettare dati ad alta dimensione in uno spazio più piccolo senza perdere troppa informazione.
LDA (Linear Discriminant Analysis): Spesso usata per la riduzione della dimensionalità in contesti di classificazione, proietta i
o dati in modo da massimizzare la separabilità tra classi diverse.
t-SNE: Un algoritmo specializzato nel visualizzare dati complessi in 2D o 3D, preservando le relazioni di vicinanza locali (molto
o usato per l'analisi dei dati genomici o testuali).
Autoencoder: Reti neurali che imparano a comprimere l'input in un formato ridotto e poi a ricostruirlo; sono usati per pulire i
o dati dal rumore o per estrarre le caratteristiche salienti in modo automatico.
3. Applicazioni nel Mondo Reale
Classificazione: Riconoscimento facciale, assistenti vocali, diagnosi medica, traduzione automatica.
• Regressione: Previsioni finanziarie, ottimizzazione dei trasporti, stime immobiliari.
• Clustering: Sistemi di raccomandazione (Netflix, Amazon), analisi di clienti per marketing, ricerca genomica, manutenzione
• predittiva.
Riduzione Dimensionalità: Pre-elaborazione dati per addestrare modelli più efficienti, visualizzazione di dati compless
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
PropTech: AI e Digital Human per il Property Management
-
Introduzione ai circuiti - Esercizi
-
Introduzione ai calcolatori - Appunti
-
Introduzione ai circuiti - Esercitazione