19-23 January 2026

The Winter School aims to empower language educators, curriculum developers, instructional designers, and assessment specialists with knowledge, tools, and strategies to integrate Artificial Intelligence (AI) in language education.
Coordinator:
Prof. Letizia Cinganotto, University for Foreigners of Perugia
CVCL Director:
Prof. Giovanna Scocozza, University for Foreigners of Perugia
Working Group:
Dr. Danilo Rini and the Italian language experts at the CVCL

Promoted by the University for Foreigners of Perugia
Funded by TNE- IMPACT MUR project
Video dell'evento
Accetta i cookie di youtube.com per vedere il video. Puoi gestire le preferenze nella Cookie Policy.
Punti chiave emersi dalle diverse sessioni:
Visione antropocentrica dell'IA
Un tema ricorrente, introdotto dalla coordinatrice Letizia Cinganotto, è che "non c'è nulla di artificiale nell'IA": essa è creata, sviluppata, utilizzata e governata dagli esseri umani. Questo approccio "umanistico" suggerisce che l'IA debba essere uno strumento per potenziare le capacità umane, non per sostituirle, mantenendo sempre l'individuo al centro del processo decisionale e creativo.
Valutazione linguistica e standard professionali
Nick Savil (ALTE/Cambridge) ha illustrato l'evoluzione della valutazione linguistica nell'era digitale:
Ciclo di valutazione: L'IA viene già utilizzata per l'automazione di processi come la valutazione della scrittura (automated rating) e la generazione di materiali per i test.
Valutazione orientata all'apprendimento (LOA): La tecnologia permette di superare la barriera tra valutazione formativa e sommativa, creando modelli di valutazione "smart" che sono adattivi, diagnostici e integrati nel percorso di apprendimento.
Equità e giustizia sociale: Savil sottolinea che l'accesso alla tecnologia è una questione di giustizia sociale. È fondamentale garantire che l'IA non esacerbi il divario digitale e che sostenga anche le lingue meno diffuse.
Politiche europee e multilinguismo
Anna Soler (Commissione Europea) ha presentato il contesto politico dell'UE:
Obiettivo 1+2: L'UE mira a far sì che ogni giovane conosca almeno due lingue oltre a quella scolastica, ma i dati mostrano che c'è ancora molta strada da fare, specialmente per lingue diverse dall'inglese.
IA come supporto: L'IA è vista come un potenziale strumento per la personalizzazione dell'insegnamento e come supporto per la mediazione linguistica nelle classi multilingue, aiutando ad esempio gli studenti immigrati a integrarsi.
Progetti di ricerca e applicazioni pratiche
Il seminario si inserisce nel progetto IMPACT (partnership mediterranea per l'insegnamento collaborativo), che mira a favorire l'internazionalizzazione e l'uso di infrastrutture digitali avanzate. Alcuni esempi pratici discussi includono:
Chatbot ID: Un assistente virtuale sviluppato per la pratica conversazionale dell'italiano.
Lessicografia computazionale: L'uso dell'IA per creare dizionari arabo-italiano partendo da corpora paralleli, facilitando l'apprendimento di un lessico complesso.
Padlet: utilizzato durante la Winter School come hub centrale per la condivisione di risorse, compiti e casi studio tra i partecipanti.
La prospettiva filosofica di Luciano Floridi
Il professor Floridi ha proposto una visione dell'educazione come "competenza linguistica":
Capitale semantico: l'educazione serve a curare il capitale semantico dell'individuo, ovvero l'insieme di conoscenze e narrazioni che danno senso alla vita.
KFL (Knowledge as a Foreign Language): Floridi suggerisce di trattare la conoscenza come una lingua straniera: più "lingue dell'informazione" (dalla matematica alla biologia) parliamo, più siamo cittadini consapevoli.
Distant Writing (Scrittura a distanza): Floridi immagina un futuro in cui l'IA scriverà la maggior parte dei nostri testi (email, rapporti), mentre gli umani si concentreranno sul design, sul controllo e sulla responsabilità del contenuto, agendo come "architetti" dell'informazione.
Sfide etiche e regolamentazione
Giorgio Resta ha analizzato l'AI Act dell'Unione Europea, evidenziando che i sistemi di IA usati nell'istruzione sono spesso classificati come "ad alto rischio". Ciò comporta obblighi rigorosi in termini di trasparenza, supervisione umana e prevenzione dei pregiudizi (bias) nei dati.
