Sessione | ||
Sessione 2 - Panel 07: Pratiche e literacy dell'IA
| ||
Presentazioni | ||
Learning to use/through the use of ChatGPT: the AI literacies of Italian students 1Università Cattolica del Sacro Cuore, Italia; 2Università di Milano Bicocca As with other new technologies, children and young people have been eager early adopters of Generative AI tools since the release of ChatGPT in November 2022. Research worldwide has documented the most common uses of GenAI tools among this age group, as well as their expectations and fears for the future. For example, young people in the US tend to engage with textual Gen AI more than image- or video-based GenAI, and they do so mainly to get assistance with their homework or to escape boredom (Madden et al., 2024). However, research is still sparse and mainly descriptive, leaving room for unsubstantiated public discourses that either reproduce the commercial hype around the revolutionary opportunities opened by Gen AI; or replicate media panics around the harmful negative effects for children and young people, as if students’ cheating in school, adolescents’ mental health problems, and disinformation campaigns, were only determined by Gen AI. Moreover, the question of young people’s AI literacies is still underexplored. This presentation reports on interviews with 15 13-to-17-year-olds in Italy, as part of a qualitative comparative research across 13 European countries (Austria, Czech Republic, Estonia, Ireland, Italy, Latvia, Luxembourg, Norway, Poland, Portugal, Serbia, Spain, the UK). The in-depth interviews were conducted both in person and online, to a diverse sample of adolescents in terms of gender, age balance, school type, socioeconomic status, urban or rural area. We examine the AI literacies of young people, and prerequisites and barriers to developing AI knowledge and skills (including individual resources and vulnerabilities, and structural enablers and barriers, Helsper, 2021). Informed by a conceptualisation of digital literacy as consisting of knowledge and skills elements as well as functional and critical aspects (Smahel et al., 2024), we define AI literacy as the combination of critical skills and knowledge about how Gen AI works. The findings confirm that AI literacy consists of both functional and critical skills and knowledge, and is influenced by age and context. Adolescents use GenAI primarily for schoolwork, especially to help them with writing tasks or to support them in appropriating difficult concepts or summarising long texts. By contrast, they tend to distrust GenAI when it comes to solving math problems. Accordingly, many interviewees understand ChatGPT as a direct replacement for search engines. Adolescents learn to use GenAI by themselves, through a learning by doing process; or via informal learning practices - including word of mouth, or videos on Instagram or TikTok. Only occasionally they are introduced to positive uses of ChatGPT and other tools by teachers. Family discussions on GenAI, instead, remain sporadic and parents do not play a significant role in scaffolding adolescents’ skills. their skills and knowledge around GenAI is unevenly distributed. While most interviewees share a basic understanding of GenAI capabilities as stemming from internet data, they tend to lack foundational technical knowledge or awareness of underlying mechanisms, and ignore risks related to datafication or algorithmic bias. As a result of limited AI literacy, when presented with hypothetical scenarios, adolescents reproduce dystopian discourses, with reference to the risk of disinformation and a totally AI-fabricated reality, cognitive disempowerment (where increased reliance on Gen AI may undermine critical thinking and independent problem-solving skills), and automation replacing human roles and decision-making. In conclusion, our study highlights how adolescents’ engagement with GenAI is shaped by diverse and fragmented learning pathways, with home, school, and social media representing potential educational loci offering uneven but equally insufficient support. Our findings contribute to the debate on the need for comprehensive AI literacy education that promote critical, ethical, and informed engagement with GenAI. Imparare senza appartenere? I “pubblici di pratica” dell’IA generativa visuale Università degli Studi di Milano, Dipartimento di Scienze Sociali e Politiche I modelli di intelligenza artificiale generativa creano nuovi contenuti testuali, visivi e sonori. I progressi tecnologici hanno reso i prodotti generati dall'IA sempre più difficili da distinguere da quelli umani, e la loro rapida diffusione ha favorito applicazioni che spaziano dalla ricerca accademica ai contenuti politici. Per analizzare le pratiche legate all’uso dell’IA generativa e alla circolazione dei suoi output, proponiamo il concetto di pubblici di pratica. Li definiamo come formazioni sociali effimere che si aggregano attorno a un tema, connesse dalle infrastrutture sociotecniche dei social media e delle piattaforme digitali. La visualizzazione delle relazioni tra input e output nei sistemi sociotecnici, come l’IA generativa o i sistemi di raccomandazione, rende possibile l'apprendimento reciproco e la comprensione condivisa. I pubblici di pratica si formano attraverso interazioni con i sistemi sociotecnici: la creazione di contenuti e la loro circolazione nei media digitali. Piuttosto che organizzarsi attorno a un punto focale come un marchio o un tema, questi pubblici emergono dalla visibilizzazione della pratica, ad esempio mediante la condivisione di coppie input-output di IA generative sui social media. Nel caso dell’IA generativa, l’input testuale (o prompting) deriva da conoscenze individuali e collettive. La generazione di contenuti avviene attraverso la formulazione di prompt e la regolazione di parametri tecnici. L’output di un sistema GAI—da solo o insieme al suo prompt—riflette dunque competenze, convenzioni e contesti di produzione: un'immagine generata dall'IA rivela norme situate e preferenze estetiche, come ad esempio una predilezione per il fotorealismo rispetto ad altri stili. Quando condivise sui social media, queste immagini e i loro prompt diventano strumenti di apprendimento e contribuiscono alla costruzione di un quadro interpretativo per i contenuti futuri. I sistemi di IA generativa rendono la pratica visibile, favorendo l’apprendimento collettivo e la negoziazione delle interpretazioni attraverso la circolazione online degli output. La generazione di contenuti e l’interazione con l’IA costituiscono pratiche comuni che ricordano le tradizionali comunità di pratica (Warner, 2002), contribuendo allo sviluppo di un linguaggio condiviso e permettendo una negoziazione collettiva riguardo gli usi e le norme che circondando l’IA generativa. Qui, l’attenzione non è solo sulle formazioni sociali, ma su come gli output della GenAI incarnino la pratica. Attraverso un’analisi con metodi digitali cross-piattaforma (TikTok, Reddit e Twitter/X), descriviamo qualitativamente l’emergere dei pubblici di pratica attorno all’IA generativa visuale. Mostriamo come la creazione, la condivisione e la valutazione delle immagini artificiali siano modellate da strutture sociotecniche e norme, dagli usi degli utenti ai loro immaginari. Analizziamo queste pratiche rispetto alle piattaforme, alle affordance tecnologiche, e alle estetiche e ai discorsi influenzati dai modelli generativi visivi. Utilizzando metodi digitali, adottiamo approcci di raccolta dati nativi (Caliandro et al., 2024) per esplorare come le visualità e le pratiche generative varino nei diversi contesti (Niederer & Colombo, 2024). I risultati mostrano che le interazioni su Reddit, TikTok e Twitter sono più frammentate rispetto alle comunità stabili. Questi spazi strutturano pubblici di pratica, dove conoscenza e apprendimento collettivo si sviluppano e vengono negoziati attraverso le specifiche ‘grammatiche’ e ‘vernacoli’ di ciascuna piattaforma, considerando sia gli strumenti di IA generativa, che producono immagini artificiali tramite prompt, sia le infrastrutture sociotecniche che ne regolano la circolazione. Il nostro contributo è duplice: 1) esaminiamo usi, pratiche e circolazione delle immagini generate dall’IA; 2) introduciamo il concetto di pubblici di pratica per spiegare come le interazioni con i sistemi sociotecnici plasmino formazioni sociali ad hoc, favorendo apprendimento e interpretazioni condivise. Discutere di Ultima Generazione con ChatGPT: potenzialità e limiti dell’IA generativa nel dibattito democratico Università Cattolica di Milano, Italia L’intervento dà conto dei risultati di un esperimento volto a valutare le potenzialità dell’uso dell’IA generativa nel dibattito democratico per promuovere la comprensione della complessità di questioni pubbliche controverse – nello specifico, la valutazione politica dell’attivismo performativo del movimento ambientalista Ultima Generazione. L’esperimento, svolto nel 2024 e ispirato all’uso dei “serious games” nella ricerca sociale (Greenblat 1971), è consistito in una serie di focus group in cui gruppi di giocatori (selezionati tra gli studenti dei corsi di laurea in Scienze Politiche e Sociali dell’Università Cattolica del Sacro Cuore) si sono confrontati ludicamente con GPT-4° con interfaccia vocale, difendendo e poi criticando le azioni di Ultima Generazione. Alla fine del gioco, giurie con differenti competenze (studenti, scienziati politici, esperti di IA con background sociologico) hanno assegnato un punteggio agli scambi comunicativi, confrontandosi tra loro e con i giocatori sulle ragioni della propria scelta e proclamando un vincitore. L’obiettivo dell’esperimento consisteva nell’analizzare criticamente le implicazioni delle interazioni con l’IA Comunicativa per il discorso democratico da tre punti di vista: (1) la forma assunta dai dibattiti pubblici su temi controversi, così come strutturata dall’IA; (2) le strategie retoriche e ideologiche messe in atto dall’IA; e (3) il contributo dell’IA alla comprensione, da parte dei partecipanti, della complessità delle questioni controverse. I risultati suggeriscono, innanzitutto, che ChatGPT tende a strutturare il discorso politico all’interno dei confini della razionalità e della cortesia formale (Lakoff, 1973), mettendo temporaneamente in scena una sorta di ideale sfera pubblica habermassiana. Mentre tale approccio risulta più apprezzato rispetto agli scambi accesi tipici dei talk show, i partecipanti sottolineano come la natura non umana dell’AIA si traduca in un ragionamento privo di empatia ed esperienza incarnata, in ultima istanza inadeguato nei dibattiti politici (Papacharissi, 2010, 2015). In secondo luogo, e nonostante la messa in scena di una situazione comunicativa ideale, i partecipanti hanno individuato diverse strategie discorsive “problematiche” adottate da ChatGPT. E’ il caso ad esempio della strutturazione tendenziosa del campo semantico dei concetti usati nel dibattito, come avviene per l’uso del termine “violenza” per gli atti di disobbedienza civile tipici di Ultima Generazione. Queste strategie evidenziano come operazioni persuasive poco trasparenti, scollegate dal “regime di verità” (Foucault, 2012), possano infiltrarsi in dialoghi che, in apparenza, mirano alla comprensione reciproca. Infine, riguardo al “potenziale epistemico delle opinioni contrastanti” nella sfera semi-pubblica (Habermas, 2023), il contributo di ChatGPT e quello dell’esperienza ludica nel suo complesso sono stati valutati diversamente. Da una parte, infatti, ChatGPT è stato considerato di scarsa utilità per l’ampliamento della conoscenza dei partecipanti sul caso di UG: i partecipanti hanno descritto l’IA come una sorta di “motore di ricerca per il senso comune” che riproduce acriticamente le opinioni dominanti sui movimenti ambientalisti. D’altra parte, però, il confronto pubblico dei giocatori e delle giurie con l’AIA, è stato apprezzato come un valido modo per condividere, e attivare nel discorso politico, conoscenze, opinioni, e punti di vista differenti. Terzo settore e IA, sfide e opportunità teoriche ed empiriche da una ricerca sul campo nel Nord-Italia. 1Università di Roma Tor Vergata, Italia; 2Ischire Considerando la partecipazione in tutti i campi della sfera sociale come strettamente connessa a questioni di potere e disuguaglianze (Carpentier, Wimmer 2024), essa costituisce una delle principali sfide per la realizzazione e la sussistenza dei processi democratici e per il superamento dei crescenti livelli di disuguaglianza nell'attuale epoca di disgregazione sociale e della sfera pubblica (Bentivegna, Boccia Artieri 2022, Bruns 2023, Bulchotz et al. 2024, Reckwitz 2021). Guardando al contesto italiano, ci concentriamo sui corpi intermedi della sfera pubblica (nello specifico gli enti del Terzo Settore, ETS) per riflettere sul loro ruolo e sulla loro capacità di partecipazione critica nei e attraverso i media, incorporando in questi ultimi la crescente presenza dell'IA. Gli ETS costituiscono realtà-cerniera che storicamente tutelano la coesione sociale, intervengono nella formazione delle comunità e rappresentano le istanze dei gruppi sociali più vulnerabili (persone con disabilità, ecc.) presso le istituzioni e gli organi politici (UnionCamere 2024). In tal senso, questi possono giocare ancora un ruolo chiave nella complessa interazione tra l'adattamento della politica agli sviluppi e ai bisogni della società e l'adattamento della società alle decisioni politiche che ne derivano, relativamente alle capacità di intervenire sulla riflessione e la risonanza democratica della società (Rosa 2022). Alla luce delle già note risorse precarie e la limitata strategia di comunicazione di questi attori, ma in particolar modo del loro potenziale di cambiamento culturale (Peruzzi, Volterrani 2016), esploriamo che tipo di approccio hanno adottato nei confronti dell'IA e quali potenzialità e rischi per il futuro derivano da questa relazione. Problematizzando la prospettiva che reputa l'IA come “benefica per tutta l'umanità”, visione propria dell’approccio anglo-americano (Gebru, Torres 2024), intendiamo esplorare la conoscenza algoritmica (Cotter, Reisdorf 2020) degli ETS in relazione alle implicazioni per la comunità a cui si rivolgono e che vorrebbero contribuire a fortificare considerando la difficoltà strutturale del sistema delle piattaforme in riferimento alla solidarietà (Couldry 2024). Poiché le piattaforme digitali non cambiano la vita umana da sole, ma il loro funzionamento e significato è sempre negoziato dagli individui attraverso combinazioni continue di processi di creazione di significato e sviluppo tecnologico (Couldry, Hepp 2017), è dirimente considerare le percezioni e le capacità degli ETS di impiegare l'IA nei loro processi di pianificazione e formazione interni/esterni. Utilizzando un approccio di Critical Data Studies (ad esempio Markham, Pronzato 2023; Medrado, Verdegem 2024), questo studio esplorativo è stato condotto attraverso note di campo in una serie di workshop di persona, un sondaggio online e interviste di follow-up in profondità con più di 100 diversi ETS nel Nord Italia dall'agosto 2024 al gennaio 2025 (Burrell 2024, Bradbury 2024, Huang, Chen 2024). Questi erano specializzati in diverse aree del lavoro sociale e impiegati in vari settori, dalla comunicazione all'ospitalità. I primi risultati rivelano un'iniziale diffidenza, resistenza e sfiducia che vanno nella direzione di appiattire le capacità tecniche di adozione e utilizzo degli strumenti. Nonostante il rischio di non diventare “comunità epistemiche per la sicurezza dell'IA” (Ahmed et al. 2024) ma solo pragmatiche, il processo iterativo di accompagnamento degli strumenti sembra affermare che la svolta partecipativa nell'uso dell'IA (Young et al. 2024, DiPaola et al. 2024) è in grado di restituire centralità all'educazione civica come pratica critica e sperimentale che promette di trasformare o riportare ad essere gli ETS incubatori e vettori di partecipazione scalare nei territori. Intelligenza artificiale nella salute e nella cura: analisi degli immaginari istituzionali Università Cattolica del Sacro Cuore, Italia Nell’ambito degli studi STS (Bijker et al., 1989; Mackenzie & Wajcman, 1999), è stato ampiamente evidenziato il ruolo degli immaginari nello sviluppo tecnologico fornendo cornici interpretative e influenzando i percorsi di innovazione tanto nella produzione quanto nel consumo (Bakiner, 2023; Sartori & Bocca, 2023). La loro analisi può quindi condurre, a ritroso, a comprendere meglio lo scenario e le direttrici entro cui le tecnologie vengono progettate e proposte. Diversi studi si sono occupati di indagare gli immaginari dell’Intelligenza Artificiale (IA) in documenti istituzionali quali l’AI Act UE e le policy nazionali, a livello generale o in specifici settori come quello della salute e della cura (Bareis & Katzenbach, 2022; Corsi & D’Albergo, 2024; Hoff, 2023; Sartori & Bocca, 2023; Tucker, 2023). Il presente contributo si inserisce in questo dibattito, analizzando gli immaginari e le cornici narrative presenti nei documenti istituzionali italiani che riguardano l’intersezione fra salute, cura e IA. La ricerca ha riguardato i documenti di istituzioni pubbliche nazionali rilasciati negli anni 2022-2024, in particolare la Strategia Italiana per l’Intelligenza Artificiale 2024-2026, il Modello predittivo 2.0 del Ministero della Salute, il Monitor 47 di AGENAS. È stata effettuata un’analisi del discorso codificando le macroaree narrative su evoluzione tecnologica (continuità/rottura, obiettivi, funzioni), attori coinvolti, dimensione temporale (accelerazione/decelerazione, archi temporali), dimensione spaziale (luoghi della cura), dimensione riflessiva (etica, rischi). I risultati preliminari mostrano che l’IA è immaginata come una forza rivoluzionaria, in grado di ottimizzare i processi, supportare la programmazione, migliorare il rapporto fra cittadini e istituzioni. Si tratta di un processo inevitabile: non si pone in questione se ma come adottare sistemi di IA. Gli attori coinvolti sono molteplici: autorità pubbliche, Pubblica Amministrazione, enti che si occupano di salute, formazione a tutti i livelli (scuole e università). Le istituzioni sono presentate come l’ente guida, promotore, regolatore e connettore. Gli orizzonti temporali sono a breve termine (attivazione di progetti e misure immediate) e medio/lungo termine (soprattutto per la ricerca). Il senso di urgenza è acuito dalla definizione delle politiche per l’IA come un “bersaglio mobile”, ovvero oggetto di costante revisione. I progetti concretamente finanziati sono ancora limitati. Per la sanità nazionale il principale è dedicato all’IA applicata al supporto dell’assistenza primaria nell’ambito dell’elezione della casa come luogo di cura, in particolare per pazienti cronici e over 65, pensando i servizi assistenziali in modo integrato. L’approccio è quello “One Health” in cui si sostengono prevenzione, stili di vita sani, cura delle persone fragili. Rispetto alla dimensione riflessiva, nella Strategia Italiana appare la consapevolezza di una non neutralità della tecnologia, con l’esigenza di produrre una IA che colga le specificità del contesto culturale italiano con soluzioni non proprietarie e con la visione antropocentrica propria dell’Unione Europea. Vi è consapevolezza dei rischi, ad esempio omogenizzazione culturale, digital divide, disuguaglianze sociali, inefficacia dei progetti. Nell’ambito della salute si deve prestare attenzione allo sviluppo di LLM etici, senza “allucinazioni”, proteggendo il diritto degli autori e rendendo disponibile la tracciabilità dei contenuti. L’immaginario risente del dibattito più recente (es. su bias e rischi dell’IA) e del contesto culturale europeo (istituzioni come regolatore vs deregulation). Nella Strategia Italiana salute, cura, benessere, impieghi sociali dell’IA hanno un peso marginale rispetto all’ampia attenzione dedicata al settore delle imprese. La limitatezza dei KPI di valutazione in particolare rispetto all’impatto sociale sui processi di cura e salute lascia trasparire la mancanza di un collegamento fra immaginari e pratiche, su cui invece sarebbe auspicabile una maggiore connessione anche in relazione alle sfide demografiche del nostro Paese. In relazione al tema della conferenza, questo studio offre una prospettiva critica su come le istituzioni pubbliche stiano incorporando e comunicando l’innovazione tecnologica in ambito sanitario e assistenziale. |