I conversational agents basati su AI generativa (es. ChatGPT, Claude, Gemini, Copilot) sono sempre più utilizzati in contesti educativi, professionali e decisionali. In tali interazioni, un aspetto cruciale è la capacità del sistema di fornire spiegazioni chiare, trasparenti ed efficaci per supportare la comprensione e l’uso appropriato delle risposte.
Nonostante la crescente attenzione verso l’explainable AI, gran parte della letteratura si concentra su aspetti tecnici dell’interpretabilità dei modelli, mentre rimane limitata la comprensione dell’efficacia delle spiegazioni dal punto di vista degli utenti all’interno di interazioni conversazionali.
Questa tesi si propone di realizzare una systematic literature review sull’explanation efficacy nei conversational agents, con l’obiettivo di analizzare come le spiegazioni influenzano la qualità dell’interazione human–AI, la fiducia degli utenti, la comprensione e l’appropriate reliance sui sistemi AI.
Il lavoro si inserisce nell’ambito della Human-AI Interaction e della Human-Centered AI, con particolare attenzione alla valutazione user-centered dei conversational systems.
OBIETTIVI DELLA TESI
La tesi ha i seguenti obiettivi:
- identificare gli studi empirici su spiegazioni nei conversational agents
- analizzare come viene definita l’explanation efficacy
- identificare le dimensioni user-centered dell’efficacia delle spiegazioni
- analizzare l’impatto su trust, understanding e reliance
- esaminare le metriche di valutazione utilizzate
- individuare gap nella letteratura
- proporre un framework concettuale di explanation efficacy
ATTIVITA’ PREVISTE
Lo studente sarà coinvolto nelle seguenti attività:
- definizione del protocollo di systematic review
- costruzione delle stringhe di ricerca
- ricerca nei database scientifici (Scopus, Web of Science, ACM, IEEE, ecc.)
- screening degli articoli (title/abstract e full-text)
- estrazione dei dati dagli studi inclusi
- analisi qualitativa e tematica dei risultati
- sintesi dei risultati
- sviluppo di un framework concettuale
- redazione della tesi
OBIETTIVI FORMATIVI
La tesi permetterà allo studente di acquisire competenze in:
- systematic literature review
- human–AI interaction
- conversational AI
- explainable AI user-centered
- ricerca bibliografica avanzata
- analisi critica della letteratura scientifica
- sviluppo di framework concettuali
- scrittura scientifica
PREREQUISITI
Candidati ideali: studenti di Laurea Magistrale con background in Teoria e Tecnologia della Comunicazione, Informatica o Artificial Intelligence, interessati a explainable AI, human–computer interaction, AI generativa, LLM, aspetti etici e socio-tecnici dell’AI.
Requisiti:
• Ottima capacità di lettura di articoli scientifici in inglese.
• Attitudine all’analisi sistematica e alla sintesi critica.
• Attitudine al lavoro metodico (screening, coding).
• Precisione, costanza, affidabilità.
• Interesse per explainable AI, HCI, human-AI interaction
• Disponibilità a rispettare scadenze regolari.
Sono molto apprezzate:
• esperienze pregresse con review della letteratura (es. esami/progetti),
• conoscenze di base di machine learning o AI
• buona capacità di scrittura scientifica (italiano e/o inglese).
DURATA DELLO STAGE/TESI E CONTESTO RACCOMANDATO
Adatto a: Tesi di Laurea Magistrale in Teoria e Tecnologia della Comunicazione, Informatica o Artificial Intelligence.
Durata: 5–6 mesi complessivi. Il progetto richiede un ritmo costante e regolare, soprattutto nei primi mesi. Con un buon livello di impegno (8–12 ore settimanali), i risultati principali (screening, full-text, dataset codificato) saranno completati entro i primi 2–3 mesi, così da dedicare la fase finale alla valorizzazione e perfezionamento della tesi.
MODALITA’ E ORARI DI LAVORO
Il lavoro sarà principalmente remoto, con incontri periodici (online o in presenza) per:
- definire e monitorare gli obiettivi settimanali;
- discutere protocolli, criteri di codifica e strumenti di analisi;
- rivedere insieme la stesura dei capitoli della tesi e/o dei manoscritti scientifici.
L’impegno previsto è a tempo pieno nel periodo di tesi, con una pianificazione flessibile ma strutturata, concordata con i tutor.
CONTATTI
Per candidarsi, contattare il Dott. Luca Marconi all’indirizzo email: luca.marconi@unimib.it e in cc il Prof. Federico Cabitza (federico.cabitza@unimib.it), allegando il tuo CV e indicando brevemente: (1) la motivazione per cui ti interessa lavorare su explainable AI e human–generative AI interaction; (2) il corso di laurea; (3) eventuali esami o progetti rilevanti (AI, HCI, metodologia della ricerca)