Programma della conferenza

VII “Non c’è più tempo!” Crisi ed emergenze nella società contemporanea / Cagliari, 19/20 giugno 2025

In un’epoca segnata da crisi ricorrenti e da un senso di urgenza perpetua, il concetto di tempo emerge come una lente imprescindibile per analizzare e comprendere la società contemporanea. Il convegno SISCC 2025, organizzato dalla “Società Scientifica Italiana di Sociologia, Cultura e Comunicazione”, intende riflettere sulle molteplici declinazioni del tempo nel contesto delle crisi odierne, esplorando come l’accelerazione dei ritmi di vita e la proliferazione delle emergenze stiano ridefinendo dimensioni fondamentali dell’educazione, della comunicazione e della vita quotidiana.

 
 
Panoramica della sessione
Sessione
Sessione 4 - Panel 10: Immagini e rappresentazioni dell'IA
Ora:
Venerdì, 20/06/2025:
10:30 - 12:30

Chair di sessione: Patrizia Calefato
Luogo, sala: Aula 13 (A1-C)

1° piano. Edificio A (Palazzo Baffi) Campus Sant'Ignazio. Via Sant'Ignazio da Laconi, 74 (CA)

Mostra un messaggio di aiuto per ‘Aumenta o diminuisci la lunghezza del testo dell’abstract'
Presentazioni

Il tempo passa ma gli stereotipi restano: l’ageismo nei sistemi di IA generativa

Francesca Belotti1, Simone Mulargia2, Veysel Bozan1, Mireia Fernández-Ardèvol3

1Università degli Studi dell'Aquila, Italia; 2Università LUMSA, Italia; 3Universitat Oberta de Catalunya, Spagna

Questo paper indaga il fenomeno del AI Ageism, ovvero l’insieme di pratiche e ideologie che operano nei sistemi di intelligenza artificiale (IA) discriminando, stigmatizzando o trascurando le persone anziane in ragione della loro età (Chu et al., 2022; Stypinska, 2023). Mentre le ricerche sui pregiudizi di genere incorporati e riprodotti dalle IA si stanno già avvicendando (Leavy, 2018; Walker, 2020; Browne et al., 2023 tra altri), c’è ancora poca letteratura su quelli basati sull’età (finora Putland et al., 2023; Byrne et al., 2024; Loos et al., 2024). La nostra ricerca mira a colmare questa lacuna dando conto, nello specifico, di come i chatbot di IA generativa (genAI) rappresentano le persone anziane e l’invecchiamento nei loro output testuali.
In un’epoca in cui lo scorrere del tempo di vita è connotato negativamente (Grenier, 2012; Comunello et al., 2022; Rosales et al., 2023) e i concetti di giovinezza e vecchiaia sono annodati a narrazioni stereotipate su innovazione tecnologica e pratiche digitali (Peine & Neven, 2021; Fernández-Ardèvol, 2023; Mertala et al., 2024), analizzare come ne parlano le genAI ci offre una prospettiva privilegiata sui repertori culturali ageisti radicati nella nostra società. Gli studi recenti sulle genAI dimostrano, infatti, che queste (ri)producono le disuguaglianze sociali a cui sono state “esposte” in fase di design e training (Airoldi, 2022; Barassi, 2024). Queste nuove tecnologie sono emulatori di default della socialità umana (Natale & Depounti, 2024; Gillespie, 2024) e nuovi interlocutori comunicativi (Esposito, 2022; Natale & Guzman, 2022; Bolin, 2024), progettati per creare contenuti apparentemente autentici (Hacker et al., 2024) ma non necessariamente accurati (Kay et al., 2024). Le genAI imparano dai dati in cui, tuttavia, sono riflesse relazioni di potere e asimmetrie sociali (Thylstrup, 2022); dunque, è nell’interazione quotidiana con i chatbot che vengono in evidenza i bias sulla terza età che operano nei dataset utilizzati per programmare e allenare questi sistemi socio-tecnici (Fernández-Ardèvol & Grenier, 2024; Gallistl et al., 2024).
Per questo, dal punto di vista metodologico, abbiamo utilizzato l’intervista semi-strutturata come punto di accesso alla filiera del machine learning (Rama & Airoldi, forthcoming), replicando con i chatbot l’approccio conversazionale proprio della ricerca sociale con partecipanti umani. Abbiamo intervistato ChatGPT, Gemini, Copilot, Perplexity e Jasper in inglese (lingua di addestramento delle generative AI), geolocalizzando due intervistatori fittizi nel Regno Unito (paese anglofono più vicino all’Europa) e sterilizzando il setting d’interazione (con protocollo appositamente creato). La traccia dell’intervista includeva domande sia sull’ageismo che sul sessismo, entrambi riferiti all’ambito digitale: le due sfere di discriminazione servivano, infatti, a sottolineare l’invisibilità socioculturale della prima dal confronto con la seconda (Rosales et al., 2023); il riferimento al regno digitale serviva, invece, a far emergere facilmente gli stereotipi in quanto ambito dominato da uomini (e) giovani (Klinger & Svensson, 2021; Mannheim, 2023).
L’analisi tematica delle risposte fornite dai chatbot mostra che i sistemi di genAI sono stati addestrati a fornire risposte “politicamente corrette” per evitare stereotipi sessisti ma non anche quelli ageisti. Si tratta di un doppio standard riconducibile al diverso grado di sensibilità culturale che la società ha maturato nei confronti delle discriminazioni basate sul genere e sull’età, e che i chatbot inevitabilmente replicano consolidandolo nel tempo. Inoltre, dalle interviste è emerso che le genAI connotano in modo diverso le proprie utility (i.e., le funzioni per cui sono progettate/utilizzate) sulla base dei dati demografici dell’utenza, svelando così l’interferenza degli stereotipi sui propri sistemi di apprendimento ed elaborazione delle informazioni. In questo caso il doppio standard opera nei confronti sia delle persone anziane che delle donne, dimostrando che sia gli stereotipi sessisti che quelli ageisti influiscono su come i chatbot interpretano le proprie interazioni con gli utenti, nonostante queste si assomiglino.



La moda nel Metaverso: AI e percezione del tempo, tra accelerazione e sostenibilità

Michelle Grillo

eCampus, Italia

Le crisi ecologiche ed economiche cambiano la percezione del tempo e delle pratiche quotidiane, trasformando il modo in cui le persone consumano, producono e si relazionano con i beni materiali e digitali. In questo scenario, la moda digitale e l’AI generativa emergono come nuove frontiere di consumo, ridefinendone la temporalità e modificando la produzione e la fruizione. Questa trasformazione si inserisce nel contesto odierno di grave crisi ambientale, in cui il fast fashion è al centro del dibattito sulla sostenibilità (Mortara et al., 2024; Calefato, 2021). In questa direzione, la moda digitale e generativa avanza con la promessa di una smaterializzazione dell’abbigliamento come soluzione sostenibile agli sprechi e al consumo di risorse fisiche. Tuttavia, tale forma di produzione, anziché mitigare l’impatto ambientale, rischia di alimentare ulteriormente l’iperconsumo, sollevando interrogativi sulla sostenibilità dell’hyper-fast fashion digitale e sulla dilatazione della percezione del tempo nelle pratiche di consumo.

Questa riflessione si inserisce nel quadro teorico della teoria accelerazionista di Hartmut Rosa (2015), per il quale la modernità è segnata da un’accelerazione che comprime la percezione del tempo e rende il presente sempre più breve e instabile. La moda digitale, e in particolare quella generativa, con la sua produzione istantanea, esemplifica questa logica, spazzando via la stagionalità e promuovendo il consumo iperveloce, con un forsennato turnover di modelli, tendenze e pratiche comunicative. Al contempo, il paper si basa sulle riflessioni di Zygmunt Bauman (2012) che consentono di interpretare le pratiche mediali e socioculturali della moda digitale nel contesto della postmodernità, segnata da consumo volatile e identità mutevoli. In questa prospettiva, per esempio, è possibile inquadrare l’acquisto e l’impiego di abiti solo per la durata di un post sui social o per un avatar temporaneo nel metaverso.

Attraverso l’analisi del caso studio di DressX, che invita gli utenti a “non comprare meno, ma ad acquistare moda digitale”, come risposta alle crisi ambientali e ai cambiamenti nei comportamenti dei consumatori, l’intervento intende esaminare i processi e le modalità attraverso cui il metaverso e l’AI generativa non solo riscrivono le regole della produzione e del consumo di moda, ma anche la nostra relazione con il tempo, la sostenibilità e l’identità digitale. L’assenza di fisicità della moda virtuale modifica, infatti, il ciclo temporaneo del consumo e il concetto di possesso e di durata, portando a un’esperienza sempre più effimera e disancorata dalla materialità tradizionale.

A questo proposito, l’approccio del materialismo digitale (Gottlieb, 2018; Tirino, 2017), che solleva interrogativi critici sulla reale sostenibilità e sulla capacità di rispondere alla crisi ambientale.



Bias di genere ed etnici nell’IA. Un’analisi critica attraverso il paradigma della slow technology

Paola Panarese, Marta Margherita Grasso, Claudia Solinas

Sapienza, Università di Roma, Italia

I sistemi di Intelligenza Artificiale (IA) e Machine Learning (ML) si inseriscono in un contesto socio-tecnico caratterizzato da una crescente accelerazione che influenza le strutture temporali della società (tardo)moderna e si articola in tre dimensioni interconnesse: accelerazione tecnologica, dei mutamenti sociali e del ritmo di vita (Rosa, 2015).
La capacità di questi sistemi di analizzare ed elaborare grandi moli di dati si accompagna al rischio di riprodurre e amplificare bias preesistenti basati su stereotipi che perpetuano disuguaglianze sociali, come quelli legati al genere e all’etnia (Buolamwini, Gebru, 2018). In quanto “scorciatoie di pensiero”, infatti, i bias permettono di prendere decisioni istantanee, ma diminuiscono lo spazio e il tempo per una riflessione critica (Zuboff, 2019). Tale processo si riflette nel funzionamento delle tecnologie di IA, che si configurano come “agenti sociali” storicamente e socialmente situati (Airoldi, 2022), costruiti per giungere a risultati rapidi in modo automatizzato, tramite algoritmi che apprendono da dati del passato e modellano scenari futuri, in un contesto in cui le logiche di mercato e produttività limitano le opportunità di valutare le implicazioni etiche e sociali delle tecnologie computazionali (Crawford, 2021).
Sulla base di tali premesse, si colloca il progetto **** per indagare inclusività e accessibilità dei sistemi di ML/IA con l’intento di mitigarne i pregiudizi di genere ed etnici (Shrestha, Das, 2022).
In questo ambito, il presente contributo intende osservare i principali approcci ai bias dell’IA emersi da una scoping review condotta su Scopus e Web of Science, alla luce del paradigma della slow technology, finalizzato alla progettazione di tecnologie che privilegiano riflessione e consapevolezza piuttosto che efficienza e velocità, promuovendo un uso sostenibile e critico degli strumenti digitali (Hallnäs, Redström, 2001). In particolare, la revisione della letteratura, effettuata tramite il metodo PRISMA (Page et al., 2021), ha restituito 1.176 contributi, di cui sono stati individuate prospettive disciplinari, tematiche, metodi di ricerca ed esiti rilevanti. A tal proposito, nel riconoscere come le decisioni automatizzate prese dai sistemi di ML/IA possano avere un impatto significativo sulle vite degli individui, soprattutto in ambiti sensibili, quali, ad esempio, il recruiting e la giustizia (Eubanks, 2018), il corpus selezionato sottolinea come sia necessario osservare le discriminazioni algoritmiche da prospettive multidisciplinari, in grado di affrontare la complessità del mutual shaping tra società e tecnologia (Hall, Ellis, 2023). Una complessità che, inevitabilmente, si scontra con la superficialità dei processi euristici, evidenziando l’urgenza di adottare una visione che metta in discussione l’attuale paradigma dominante nell’ambito dei sistemi di ML/IA.
In questa direzione, l’integrazione della slow technology con gli approcci socio-tecnici proposti dalla letteratura (Wellner, Rothman, 2020) implicherebbe un ripensamento del processo di sviluppo e funzionamento degli algoritmi basato su una serie di principi fondamentali, tradotti in azioni specifiche:

  • Riflessività e spiegabilità: creare sistemi di IA che permettano agli utenti di comprendere le decisioni algoritmiche, implementando la Explainable AI.

  • Trasparenza: garantire che gli algoritmi mostrino la provenienza dei dati e il loro processo decisionale.

  • Diversità, inclusività ed equità: garantire la partecipazione di gruppi sottorappresentati nei team di sviluppo, elaborando modelli human-in-the-loop per correggere bias emergenti.

  • Responsabilità: comporre team multidisciplinari e formare gli sviluppatori attraverso corsi di etica e sociologia nei programmi di AI development.

  • Flessibilità: pianificare audit algoritmici continui per valutare gli effetti sociali degli algoritmi nel tempo.

Così, integrando il paradigma della slow technology e gli approcci socio-tecnici esistenti, il contributo evidenzia come l’adozione di una prospettiva riflessiva e interdisciplinare possa costituire un’alternativa alle logiche di accelerazione favorite dai sistemi algoritmici, offrendo spunti per la progettazione di sistemi di ML/IA in direzione di una maggiore equità, trasparenza e responsabilità.



I TEMPI DELL’IA: UN’ANALISI DELL’IMMAGINARIO GIOVANILE

Antonio Opromolla

Università degli Studi dell'Aquila, Italia

Il contributo presenta i risultati di uno studio che analizza la rappresentazione dell’Intelligenza Artificiale (IA) nell’immaginario giovanile, con particolare riferimento alla sua applicazione nei servizi pubblici.

Nel discorso comune, così come nelle policy pubbliche in materia, l'IA è considerata uno strumento rivoluzionario nella società (Opromolla, Di Rocco, Parisi, 2024; Opromolla, Parisi, De Matteis, Pizolli, e Trodini, 2024); la sua applicazione ai servizi pubblici risulta ancora più determinante perché crea un terreno fertile per la sua introduzione anche in altri contesti (van Noordt, e Misuraca, 2022; Wirtz, Weyerer, Geyer, 2018). L’immaginario giovanile sull’IA è particolarmente analizzato nella letteratura scientifica sull'argomento (Ciofalo, Pedroni, Setiffi, 2024; Van Brummelen, Tabunshchyk, and Heng, 2021; Benevento, 2023): i giovani rappresentano gli utenti futuri dei servizi basati sull’IA, nonché gli attori principali del cambiamento tecnologico e sociale. Essi hanno sviluppato un’immagine dell’IA che oscilla tra visioni ottimistiche e prospettive più critiche, che fanno emergere la necessità di processi formativi mirati e politiche pubbliche adeguate.

L’analisi del contributo è stata condotta attraverso quattro focus group, coinvolgendo 40 studenti e studentesse equamente distribuiti per genere e suddivisi in due fasce d’età (14-18 e 19-24 anni). I risultati evidenziano che, sebbene l’IA venga utilizzata quotidianamente, esiste una mancanza di conoscenza sul suo funzionamento, accompagnata da timori e sfiducia. La percezione dell’utilità degli strumenti è ambivalente: da un lato, l’IA è considerata utile, dall’altro emergono preoccupazioni legate ai rischi di dipendenza. Le maggiori criticità riguardano la possibile perdita di controllo nell’utilizzo, i rischi per la privacy – specialmente per i dati sensibili – e un appiattimento cognitivo dovuto all’eccessiva personalizzazione. Emerge dunque la necessità di un controllo umano sugli strumenti di IA per migliorare la sua trasparenza, oltre che di un’educazione teorica e pratica sull’argomento.

La dimensione temporale occupa un ruolo centrale nell'immaginario giovanile riguardo l'IA. Di seguito sono riportate alcune parole chiave che meglio rappresentano le diverse sfaccettature di questa dimensione, applicabili a diversi livelli e momenti di sviluppo dell’IA.

Il primo livello di analisi riguarda gli aspetti operativi. La parola che emerge in questo ambito è accelerazione. I partecipanti evidenziano, infatti, come l’IA possa aumentare la velocità di alcuni compiti, attraverso l’utilizzo di dati raccolti in real time, in grado di fornire informazioni e di automatizzare i servizi, rendendoli più efficienti. Di contro, alcuni partecipanti evidenziano l’effetto frenante dell’IA: essa porterebbe ad un impigrimento cognitivo capace di diminuire le capacità umane di risolvere i problemi. In termini di impatto dell’IA sulla vita delle persone, emerge, inoltre, il suo effetto di puntualità: poiché uno dei pericoli percepiti dell’IA è la tendenza a fossilizzare gli utenti su posizioni sempre identiche, è come se ogni momento si ripetesse uguale al precedente, bloccando il cambiamento e l’evoluzione del pensiero.

Spostando il focus sugli aspetti implementativi, emerge la lentezza, in particolare in termini di applicazione dell'IA al settore pubblico, dal momento che le organizzazioni pubbliche sono percepite come poco aperte alla volontà di cambiamento. Una lentezza che, a sua volta, si applica agli stessi servizi, rendendoli complicati, e ai cittadini, culturalmente legati a modalità di interazione più tradizionali.

Inoltre, in merito alle caratteristiche dell’IA desiderate, emerge il carattere della duratività, legata alla necessità di rendere manifesti, nel corso dell’esperienza di interazione, i diversi stati dell’IA in modo semplice e accessibile: tale carattere di continuità offrirebbe, infatti, maggiore consapevolezza, controllo e conoscenza. Tuttavia, emerge al contempo l’aspetto dell’incoatività: l’integrazione dell’IA nei servizi pubblici è infatti considerato un processo ancora in fase iniziale, elemento che fa emergere la necessità di definire modalità di coinvolgimento delle persone nella fase di progettazione e implementazione dei sistemi di IA.



La temporalità della genericità nell'IA visiva

C.W. Anderson, Giorgia Aiello

University of Milan, Italia

Nel 2019, il sociologo dei media Henrik Bodker e i suoi coautori hanno scritto che la società stava “assistendo a una crescente divergenza tra i meccanismi di ritardo insiti nella democrazia liberale e una ‘politica dell'impazienza’ che fa parte di uno stile comunicativo populista più ampio. Inoltre, i social media, in particolare Twitter, contribuiscono a spianare la strada a questa crescente impazienza populista, creando quello che può essere definito come “tempo populista” (Bodker et al. 2019). Questa analisi tipologica è solo una parte di una gamma molto più ampia di studi che indagano il rapporto tra il cambiamento tecnologico e il tempo, che vanno dall’analisi di Eisenstein sul tempo e la stampa (Eisenstein 1966), alla discussione di Barnhurst (2011) sul tempo e le notizie, fino alla più familiare teorizzazione del tempo e dell’accelerazione (Wajcman 2014, Virilio 1977, Sharma 2014).

Negli ultimi anni le tendenze individuate da tutti questi autori hanno subito un’accelerazione (senza giochi di parole). Uno dei cambiamenti più importanti riguarda i meccanismi dei social media stessi, che sono stati sempre più dominati da tre forme di media visivi: immagini di eventi reali (Zelizer 2007), meme (Schifman 2014, Mazzoleni e Bracciale 2021) e fotografie stock (Author et al. 2022). Ognuna di queste forme visive, a sua volta, ha un proprio pregiudizio temporale incorporato. Ma l’ascesa dell'intelligenza artificiale dedicata alla produzione di immagini e l’integrazione di questi formati in varie forme di media complicano la differenziazione temporale stabilita dalle forme visive discusse finora. L’IA visiva può rappresentare contemporaneamente “il qui e ora”, un meme e una realtà generalizzata e senza tempo. In questo contributo sosteniamo che l’ascesa dell’IA visiva è meglio intesa come l’ascesa di una particolare forma di “immaginario generico” (Author et. al. 2025, Meyer 2025) che solleva interrogativi sulla relazione fra genericità e temporalità.

Per iniziare a esaminare questa questione, questo contributo è suddiviso in quattro parti. La prima parte esamina il rapporto tra immagini, tempo e “pubblico” in generale. La seconda parte si focalizza sull’ascesa dell’IA visiva e sostiene che questa forma visiva è meglio compresa come una varietà di immagini generiche, ma con proprietà insolite. Una di queste proprietà insolite è il suo orientamento temporale, che è l’argomento della terza parte del contributo. La parte finale della presentazione offre una discussione critica sulla politica accademica di una comprensione temporale dell’IA.