A Review of an exciting and relevant DIGI-FACE Webinar with UNESCO
Artificial intelligence is rapidly reshaping higher education. Across universities, generative AI is influencing how students learn, how lecturers teach, and how researchers work. It offers clear opportunities, from improving access to information to supporting writing, analysis, and knowledge production. At the same time, it raises important questions about academic integrity, critical thinking, equity, and access.
These issues were at the centre of the webinar “Responsible Artificial Intelligence for Higher Education and Research”, organised on 26 March 2026 by the DIGI-FACE coordination team in partnership with UNESCO. Moderated by Michael Kongo of the Protestant University of Congo, the discussion brought together participants from African and German universities, alongside UNESCO representatives, to reflect on how AI can be used responsibly in higher education and research.
Opening the session, Prof. Dr. Ewald Eisenberg, Director of the DIGI-FACE project at Kehl University of Applied Sciences, encouraged participants to see AI as a tool that should be approached with critical judgment rather than fear. While he recognised its value in increasing productivity, he stressed that AI-generated outputs must always be questioned, verified, and compared. This balance between openness to innovation and critical distance remained central throughout the webinar.
Bettina Onyango, Senior Desk Officer Institution Building in Higher Education – P31, from the DAAD and Coordinator of the Centres of African Excellence Programme, also welcomed participants and highlighted DIGI-FACE’s role in strengthening partnerships with African universities. She pointed to a new DAAD call for proposals in April 2026 to establish a Centre of Excellence for AI in partnership with a Kenyan university, signalling growing international investment in collaborative AI development.
From UNESCO’s side, Noah W. Sobe, Head of the Section for Higher Education, situated the discussion within a global ethical framework. Referring to UNESCO’s Recommendation on the Ethics of Artificial Intelligence, he emphasised the need to ground AI in human rights and dignity, peaceful and just societies, diversity and inclusion, and environmental sustainability. He proposed moving beyond the idea of simply keeping “a human in the loop” and instead ensuring “humanity in the loop,” so that AI remains guided by collective well-being and the public good.
Other UNESCO speakers deepened this perspective. Manuel Sanchez warned that an overly efficiency-driven use of AI could undermine intellectual authorship and the mission of universities. Carmela Salzano presented UNESCO’s Innovation Challenge in East Africa, which supports young people in using AI to address pressing issues in health, education, and agriculture.
A major focus of the webinar was the practical reality of AI use in African universities. Prof. Patrick Shamba, Secretary General for Research at the Protestant University of Congo, described how AI tools are already widely used by students, often without enough guidance. He raised concerns about formulaic writing, weak contextual understanding, and threats to scientific integrity when AI-generated work is presented as original. In response, he outlined principles for responsible use: AI should assist rather than replace the researcher, human supervision must remain essential, use should be transparent, and final responsibility must always stay with the human author.
The discussion also explored what AI means for the formation of future researchers. Prof. Abdoul Sogodogo of the University of Bamako acknowledged that AI can help students identify and synthesise literature more quickly, but warned that overreliance on these tools may weaken the deeper intellectual formation required in research. Scholarship, he argued, depends not only on efficient access to information, but also on conceptual understanding, disciplinary grounding, and the ability to ask meaningful questions.
On the pedagogical side, Dr. Alexander Wegener, lecturer at Kehl University of Applied Sciences and the Sorbonne, argued that the key challenge is no longer whether students use AI, but how universities adapt teaching and assessment in response. Rather than focusing only on detecting AI-generated content, he called for institutions to teach students how to use AI critically, compare outputs across systems, and recognise that plausible answers are not always accurate. He also stressed the need to redesign assessments so that they reward analysis, reflection, and genuine understanding rather than simple repetition.
Questions of equity were equally important. Participants noted that access to AI depends not only on subscription costs, but also on infrastructure, electricity, internet connectivity, and language representation. In many African contexts, these factors remain major barriers. Speakers also warned against algorithmic colonialism, where AI systems reflect dominant languages and knowledge systems while marginalising others. The discussion made clear that universities in the Global South must not only use AI tools, but also help shape the models, datasets, and values that underpin them.
The webinar closed with broad agreement that AI is now part of the future of higher education. The challenge is not to reject it, nor to adopt it uncritically, but to guide its use in ways that strengthen the mission of universities. The discussion highlighted several shared priorities: building AI literacy, developing ethical frameworks, rethinking teaching and assessment, and protecting equity and inclusion.
More than anything, the exchange showed that responsible AI in higher education is not only a technical issue. It is also a pedagogical, ethical, and political one. The dialogue between African and European participants made clear that the future of AI in universities must be shaped by collaboration, critical reflection, and the enduring values of scholarship: integrity, responsibility, inclusion, and human dignity.
In keeping with its mission and vision, DIGI-FACE will support the participating specialist centres and universities in this far-reaching process of change through such exchange formats and shifts in perspective. It will also do so through bespoke training programmes for university staff, postgraduate students and researchers. The next run of the course Generative AI in Higher Education, an innovative initiative from the King’s AI in Education Laboratory at King’s College London, will take place in July 2026. More information is available on the DIGI-FACE Platform.
Summarized links:
- UNESCO: Recommandation sur l’éthique de l’intelligence artificielle: https://www.unesco.org/fr/articles/recommandation-sur-lethique-de-lintelligence-artificielle
- UNESCO: https://www.unesco.org/fr/articles/transformer-lenseignement-superieur-une-feuille-de-route-mondiale-pour-lavenir
- UNESCO: Conscience universitaire et intelligence artificielle | Série de conférences sur l’intelligence artificielle et l’enseignement supérieur: https://www.unesco.org/fr/higher-education/ai-webinars
- Alexander Wegener (2026, Dr. Alexander Wegener, Chargé de cours à l’université de Kehl, à l’Université de la Sorbonne et à l’Université Lorraine): https://www.digiface.org/publications/18193/)
IA responsable dans l’enseignement supérieur : des universités africaines et européennes en dialogue
L’intelligence artificielle transforme rapidement l’enseignement supérieur. Dans les universités du monde entier, l’IA générative influence déjà la manière dont les étudiants apprennent, dont les enseignants transmettent les savoirs et dont les chercheurs mènent leurs travaux. Elle offre des opportunités concrètes, qu’il s’agisse d’améliorer l’accès à l’information, de soutenir la rédaction et l’analyse, ou encore d’accompagner la production de connaissances. Mais elle soulève aussi des questions majeures en matière d’intégrité académique, d’esprit critique, d’équité et d’accès.
Ces enjeux étaient au cœur du webinaire « Une IA responsable pour l’enseignement supérieur et la recherche », organisé le 26 mars 2026 par l’équipe de coordination de DIGI-FACE, en partenariat avec l’UNESCO. Modérée par Michael Kongo, de l’Université Protestante au Congo, la rencontre a réuni des participants issus d’universités africaines et allemandes, ainsi que des représentants de l’UNESCO, afin de réfléchir aux conditions d’un usage responsable de l’IA dans l’enseignement supérieur et la recherche.
Une innovation à aborder avec discernement
En ouverture, le Prof. Dr. Ewald Eisenberg, directeur du projet DIGI-FACE à la Kehl University of Applied Sciences, a invité les participants à considérer l’IA non comme une menace, mais comme un outil qui doit être mobilisé avec discernement. Tout en reconnaissant son potentiel pour accroître la productivité, il a insisté sur un point fondamental : les contenus générés par l’IA doivent toujours être interrogés, vérifiés et comparés. Cet équilibre entre ouverture à l’innovation et distance critique a traversé l’ensemble des échanges.
Bettina Onyango, Senior Desk Officer Institution Building in Higher Education – P31 au DAAD et coordinatrice du programme Centres of African Excellence, a également salué les participants et rappelé le rôle de DIGI-FACE dans le renforcement des partenariats avec les universités africaines. Elle a notamment évoqué un nouvel appel à propositions du DAAD, prévu en avril 2026, pour la création d’un Centre d’excellence en IA en partenariat avec une université kenyane. Cette initiative témoigne de l’importance croissante accordée à la coopération internationale dans le développement collaboratif de l’IA.
L’UNESCO et le cadre éthique international
Du côté de l’UNESCO, Noah W. Sobe, chef de la Section de l’enseignement supérieur, a replacé la discussion dans un cadre éthique global. En se référant à la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, adoptée par les 193 États membres en novembre 2021, il a souligné la nécessité de fonder l’usage de l’IA sur des principes essentiels : les droits humains et la dignité, des sociétés pacifiques et justes, la diversité et l’inclusion, ainsi que la durabilité environnementale.
Il a proposé d’aller au-delà de l’idée consistant à garder simplement « l’humain dans la boucle » pour défendre une vision plus large : celle de « l’humanité dans la boucle », afin que l’IA reste guidée par le bien-être collectif et l’intérêt général.
D’autres interventions de l’UNESCO sont venues enrichir cette perspective. Manuel Sanchez a mis en garde contre un usage de l’IA uniquement dicté par la recherche d’efficacité, qui risquerait d’affaiblir l’auctorialité intellectuelle et, plus largement, la mission même de l’université. Carmela Salzano a présenté l’Innovation Challenge in East Africa de l’UNESCO, une initiative qui accompagne les jeunes dans l’utilisation de l’IA pour répondre à des défis majeurs dans les domaines de la santé, de l’éducation et de l’agriculture.
Cette réflexion s’inscrit pleinement dans la dynamique plus large portée par l’UNESCO dans Transformer l’enseignement supérieur : une feuille de route mondiale pour l’avenir. Cette publication rappelle que l’enseignement supérieur doit lui-même évoluer pour réaliser pleinement son potentiel transformateur. Elle identifie notamment sept principes directeurs, parmi lesquels : allouer des ressources à l’équité et au pluralisme, favoriser la recherche, l’esprit critique et la créativité, instaurer un rôle centré sur l’humain pour les technologies numériques et l’IA, et placer la durabilité, la responsabilité et la régénération au centre.
Les réalités de l’usage de l’IA dans les universités africaines
Une large partie du webinaire a porté sur les usages concrets de l’IA dans les universités africaines. Le Prof. Patrick Shamba, secrétaire général à la recherche à l’Université Protestante au Congo, a décrit un contexte dans lequel les outils d’IA sont déjà largement utilisés par les étudiants, souvent sans encadrement suffisant. Il a exprimé plusieurs préoccupations : la standardisation excessive des productions écrites, une compréhension contextuelle parfois limitée, et les risques pour l’intégrité scientifique lorsque des contenus générés par IA sont présentés comme des travaux originaux.
En réponse, il a énoncé plusieurs principes pour un usage responsable :
- l’IA doit assister le chercheur, et non le remplacer ;
- la supervision humaine doit rester indispensable ;
- l’usage de l’IA doit être transparent ;
- la responsabilité finale doit toujours incomber à l’auteur humain.
La discussion a également porté sur ce que l’IA change dans la formation des futurs chercheurs. Le Prof. Abdoul Sogodogo, de l’Université de Bamako, a reconnu que l’IA peut aider les étudiants à repérer et synthétiser plus rapidement la littérature scientifique. Il a toutefois averti qu’une dépendance excessive à ces outils risque d’affaiblir la formation intellectuelle en profondeur qu’exige la recherche. Le travail scientifique, a-t-il rappelé, ne repose pas seulement sur un accès rapide à l’information, mais aussi sur une compréhension conceptuelle, un solide ancrage disciplinaire et la capacité de formuler de véritables questions de recherche.
Enseigner et évaluer à l’ère de l’IA
Sur le plan pédagogique, Dr. Alexander Wegener, chargé de cours à la Kehl University of Applied Sciences et à la Sorbonne, a estimé que la question centrale n’est plus de savoir si les étudiants utilisent l’IA, mais comment les universités adaptent leurs pratiques d’enseignement et d’évaluation à cette nouvelle réalité. Plutôt que de concentrer les efforts uniquement sur la détection de contenus générés par IA, il a plaidé pour que les institutions apprennent aux étudiants à utiliser ces outils avec esprit critique : comprendre leur fonctionnement, comparer les réponses produites par différents systèmes et reconnaître qu’une réponse plausible n’est pas nécessairement une réponse juste.
Il a également insisté sur la nécessité de repenser les modalités d’évaluation afin de valoriser l’analyse, la réflexion et la compréhension réelle plutôt que la simple restitution. Cette approche rejoint les réflexions présentées dans son document de travail publié sur DIGI-FACE, Les outils d’IA dans le travail scientifique : quelles sont les performances de chaque outil et pourquoi ?. Ce texte souligne que tous les outils d’IA ne conviennent pas à toutes les tâches et que les différences les plus importantes tiennent à leur architecture technique fondamentale. Les comprendre est essentiel pour prendre des décisions éclairées et éviter des erreurs potentiellement graves dans le travail scientifique.
Équité, accès et diversité des savoirs
Les questions d’équité ont occupé une place tout aussi importante dans les échanges. Les participants ont rappelé que l’accès à l’IA dépend non seulement du coût des abonnements, mais aussi de facteurs structurels tels que les infrastructures, l’électricité, la connectivité internet et la représentation des langues. Dans de nombreux contextes africains, ces conditions restent des obstacles majeurs.
Les intervenants ont également alerté sur le risque de colonialisme algorithmique, lorsque les systèmes d’IA reflètent principalement des langues, des cultures et des savoirs dominants, au détriment d’autres réalités. Dès lors, il apparaît essentiel que les universités du Sud global ne soient pas seulement utilisatrices de ces technologies, mais qu’elles participent aussi à la définition des modèles, des jeux de données et des valeurs qui les sous-tendent.
Ces préoccupations font écho à la série de conférences de l’UNESCO et de l’Association internationale des universités (AIU), Conscience universitaire et intelligence artificielle. Cette série explore notamment la manière dont l’IA façonne la connaissance et la pédagogie, les tensions entre bien commun et marchandisation du savoir, la géopolitique de l’IA, les enjeux d’éthique et de normes, ainsi que l’empreinte environnementale de l’IA. Elle aborde aussi le rôle de l’enseignement supérieur comme catalyseur du développement de l’IA à travers le renforcement des capacités, la recherche et la responsabilité éthique.
Des priorités communes pour l’avenir
Le webinaire s’est conclu sur un large consensus : l’IA fait désormais partie de l’avenir de l’enseignement supérieur. L’enjeu n’est ni de la rejeter, ni de l’adopter sans recul, mais d’orienter son usage de manière à renforcer la mission des universités.
Plusieurs priorités communes se sont dégagées des échanges :
- développer une véritable culture de l’IA ;
- mettre en place des cadres éthiques solides ;
- repenser les pratiques d’enseignement et d’évaluation ;
- protéger l’équité et l’inclusion ;
- veiller à ce que l’IA soit mise au service du bien commun.
Plus largement, cette rencontre a montré que l’IA responsable dans l’enseignement supérieur n’est pas seulement une question technique. C’est aussi une question pédagogique, éthique et politique. Le dialogue entre participants africains et européens a souligné la nécessité d’avancer par la coopération, la réflexion critique et l’attention portée aux contextes. Plus que jamais, l’avenir de l’IA à l’université devra être guidé par les valeurs fondamentales du monde académique : l’intégrité, la responsabilité, l’inclusion et la dignité humaine.
Les prochaines étapes pour DIGI-FACE
Conformément à sa mission et à sa vision, DIGI-FACE continuera d’accompagner les centres spécialisés et les universités partenaires dans ce processus de transformation à travers des formats d’échange de ce type, mais aussi grâce à des programmes de formation sur mesure destinés aux personnels universitaires, aux étudiants de troisième cycle et aux chercheurs.
La prochaine édition du cours « Generative AI in Higher Education », une initiative innovante du King’s AI in Education Laboratory du King’s College London (en anglais uniquement), se tiendra en juillet 2026 : https://www.futurelearn.com/courses/ai-in-education
Davantage d’informations sont également disponibles sur la plateforme DIGI-FACE, une plateforme en ligne dédiée à l’enseignement, à l’apprentissage, à la recherche et à la communication au sein de la communauté africaine de l’enseignement supérieur. Elle rassemble un vaste réseau international et propose des cours, publications, projets, actualités et opportunités de collaboration.
Pour aller plus loin
- UNESCO: Recommandation sur l’éthique de l’intelligence artificielle: https://www.unesco.org/fr/articles/recommandation-sur-lethique-de-lintelligence-artificielle
- UNESCO: https://www.unesco.org/fr/articles/transformer-lenseignement-superieur-une-feuille-de-route-mondiale-pour-lavenir
- UNESCO: Conscience universitaire et intelligence artificielle | Série de conférences sur l’intelligence artificielle et l’enseignement supérieur: https://www.unesco.org/fr/higher-education/ai-webinars
- Alexander Wegener (2026, Dr. Alexander Wegener, Chargé de cours à l’université de Kehl, à l’Université de la Sorbonne et à l’Université Lorraine): https://www.digiface.org/publications/18193/)
You must be logged in to rate posts.
