Applicazione, Valutazione e Interpretazione del processo decisionale Neurale di Modelli Pre-Addestrati per l’Analisi di Immagini Complesse

Tradizionalmente impiegati per compiti di elaborazione e generazione del linguaggio naturale i modelli generativi pre-addestrati (chatgpt e altri simili) hanno recentemente dimostrato una straordinaria capacità di trasferimento delle conoscenze anche nel dominio della visione artificiale. Tuttavia, un aspetto cruciale che merita ulteriore approfondimento è la comprensione di come questi modelli prendano decisioni e interpretino le immagini, soprattutto quando si tratta di contesti critici come immagini mediche, satellitari, o generative. Pertanto, oltre a valutare l’efficacia di meccanismi neurali per l’analisi di immagini complesse, questa tesi si propone di esplorare e integrare tecniche di Explainable AI (XAI) al fine di migliorare la trasparenza e l’interpretabilità del risultato predittivo.

PREREQUISITI

Familiarità con i principali algoritmi di apprendimento.
Esperienza di programmazione Python-PyTorch.

OBIETTIVI FORMATIVI

Analisi critica dei modelli neurali pre-addestrati disponibili, valutandone pregi e limitazioni nell’ambito dell’analisi di immagini complesse. Sperimentazione pratica con l’utilizzo di tali modelli per diversi compiti come classificazione, segmentazione, riconoscimento di oggetti, o generazione di immagini. Valutazione empirica delle prestazioni dei modelli pre-addestrati su dataset di immagini reali.

DURATA DELLO STAGE E CONTESTO RACCOMANDATO

• Adatto a: Tesi di Laurea Magistrale
• Durata: 3-5 mesi

MODALITA’ DI LAVORO: da remoto, con riscontri sistematici.

o Pianificazione del lavoro con obiettivi sistematici (di volta in volta concordati con il docente) utili al completamento del progetto di tesi.