Entretiens :: Interviews

15.10.2025

Vers une éducation du XXIe siècle :
Repenser les droits, nourrir les communs, éveiller l’éthique des rêves

Un entretien avec François Taddei, réalisé par Rita Locatelli*

Dans un monde en rapide mutation, bouleversé par l’essor des technologies numériques et de l’intelligence artificielle, repenser le droit à l’éducation devient impératif. Dans cette interview, François Taddei, président et cofondateur du Learning Planet Institute à Paris, partage une vision ambitieuse et profondément humaniste de ce que pourrait être une éducation du XXIe siècle. Il appelle à une redéfinition des droits des enfants à travers leur implication active, une pédagogie de la co-construction, une éthique de la participation et une conscience environnementale renouvelée. À partir des messages et des recommandations issues du Dialogue de Genève sur le droit à l’éducation, qui a eu lieu en 2024, cette conversation met en lumière le rôle que peuvent jouer les jeunes dans l’invention des politiques éducatives de demain, et explore des outils concrets – tels que la maïeutique numérique ou la future Learning Planet Academy – pour faire émerger un apprentissage vraiment transformateur.

© Quentin Chevrier

Quel est votre regard sur les messages clés du Dialogue de Genève concernant la digitalisation et le droit à l’éducation ? En quoi ces recommandations vous semblent-elles pertinentes ou à approfondir ?

Ce qui me frappe d’abord, c’est l’écart entre les droits théoriques et leur mise en œuvre concrète. Prenons l’exemple du fossé numérique : il ne s’agit pas seulement d’un problème technologique, mais d’un problème fondamental d’inégalités. Accéder au numérique suppose d’avoir l’électricité, des appareils, une connexion, des logiciels… Or, tout cela coûte cher, bien plus que ce que l’on investit actuellement dans l’éducation. On ne peut pas parler sérieusement de droit à l’éducation sans traiter en profondeur la question de la pauvreté.

Je préfère d’ailleurs parler de droits humains — ou mieux encore, de droits des enfants. Ces droits doivent être repensés à l’heure du numérique et de l’intelligence artificielle. Repenser les droits des enfants, c’est d’abord reconnaître que ceux définis au siècle dernier – en 1924 avec la Déclaration de Genève adoptée par la Société des Nations, en 1959 avec la Déclaration des droits de l’enfant des Nations Unies, et en 1989, avec l’adoption de la Convention relative aux droits de l’enfant – n’ont jamais été revus à l’ère du numérique et de l’intelligence artificielle. Ce vide est problématique. Les enfants d’aujourd’hui vivent dans un monde profondément transformé, et ils doivent participer eux-mêmes à la redéfinition de leurs droits. On ne peut continuer à décider pour eux sans eux. C’est aussi incohérent que les droits des femmes définis par des hommes, ou ceux des esclaves pensés par leurs propriétaires.

Il faut discuter ces recommandations avec les jeunes, leur donner les moyens de s’en emparer, d’y réagir, d’en proposer de nouvelles, avec leurs mots, leurs priorités, leur urgence. Et le numérique peut justement être un levier pour cela. Il existe des plateformes numériques, parfois renforcées par l’IA, qui permettent à ceux qui sont connectés – et parfois via leurs enseignants ou leurs parents – de faire entendre leur voix. Ce sont des outils puissants, à condition qu’ils soient utilisés pour renforcer une participation réelle. C’est dans cette logique que s’inscrit le Pacte pour l’avenir, récemment adopté par les Nations Unies : il énonce qu’aucune décision ne devrait être prise sans considérer l’intérêt des générations futures. Et qui mieux que les jeunes eux-mêmes pour exprimer cet intérêt ? Il faut leur poser des questions : que souhaitez-vous pour vos enfants ? Pour vos petits-enfants ? Quelles menaces voyez-vous ? Quels espoirs ? Cette projection dans le futur donne souvent lieu à des propositions plus ambitieuses, plus justes. Inviter les jeunes à formuler leurs besoins, leurs rêves, leurs craintes – pour aujourd’hui et pour demain – c’est une démarche profondément éducative et politique. C’est aussi, à mon sens, la seule manière sincère de rendre effectif le droit à l’éducation au XXIe siècle.

Comment renforcer des processus véritablement participatifs dans la gouvernance des technologies éducatives, à l’heure de l’intelligence artificielle, en impliquant tous les acteurs concernés ?

Pour répondre à cette question, je voudrais d’abord revenir à une idée de fond : depuis les Lumières, nous savons que l’éducation, la citoyenneté, la science, la technologie, le débat, la philosophie, les arts, les biens communs, co-évoluent. L’un ne va pas sans l’autre. Or, ce dont nous avons besoin aujourd’hui, c’est d’une éducation qui développe le pouvoir d’agir – ou « agency », un terme qu’on peine encore à traduire en français. Les Québécois parlent d’ « agentivité », mais, globalement, ce n’est pas une notion assez présente au cœur de nos systèmes éducatifs.

Ce que je défends, c’est donc une véritable reconnaissance du pouvoir d’agir des jeunes. Historiquement, leur parole n’a pas été prise au sérieux : on a infantilisé ceux qu’on considérait trop vulnérables pour décider. Mais donner à réfléchir aux enfants sur leurs propres droits, les inviter à les redéfinir avec leurs mots, leurs besoins, leurs urgences, est en soi un acte éducatif puissant. Il s’agit là de coéducation aux droits dans un contexte numérique.

Imaginons une seule plateforme éducative accessible : si elle était dédiée à l’éducation aux droits, à travers des outils de débat et de réflexion, elle serait déjà extrêmement utile. On a vu dans les conventions citoyennes (climat, fin de vie, etc.) qu’en quelques séances, des citoyens peuvent comprendre la complexité des enjeux et formuler des recommandations éclairées. Ce processus fonctionne parce qu’il donne du sens : débattre de son avenir, c’est apprendre plus vite, plus profondément. C’est en débattant qu’on développe des compétences clés : savoir écouter, synthétiser, coopérer, vivre ensemble.

Et aujourd’hui, il existe non seulement des pédagogies du débat, mais aussi des technologies du débat. On peut et on doit faire co-évoluer ces deux dimensions. Des initiatives comme Model UN l’ont démontré : elles permettent aux jeunes de débattre de questions internationales, d’apprendre mieux qu’en cours classique. Et ce type de participation peut être renforcé par le numérique : pour s’informer, synthétiser les débats, porter des recommandations au niveau des décideurs, on peut ainsi passer de « Model UN » à « remodel UN », un projet qui inspire de nombreux jeunes dès qu’ils peuvent s’y impliquer.

Le numérique, bien utilisé, peut permettre cette co-construction de l’avenir. Le message clé 7 évoque le besoin de répondre aux droits des apprenants, pas seulement de suivre une logique d’offre technologique. Cela suppose que les jeunes soient mis en capacité de comprendre, d’exprimer leurs besoins, de proposer des solutions, de produire eux-mêmes des contenus et des ressources – notamment dans leurs langues, avec leurs outils.

Je crois beaucoup à la logique des biens communs. Il y a les biens communs naturels, bien sûr, mais aussi des communs créés par les humains : la science, la démocratie, le débat, l’éducation. Et désormais des communs numériques : le web, Wikipédia, les logiciels libres, les ressources éducatives ouvertes. Le meilleur moyen de faire vivre les droits, c’est de permettre aux jeunes de nourrir ces communs – à l’échelle de la classe, de l’école, de la ville, de la région, de la planète. Et cela peut commencer très tôt.

En cela, la conception des programmes numériques ne doit pas se limiter à digitaliser l’existant. Il faut s’interroger sur ce qu’on doit apprendre à l’ère de l’IA. Si les machines savent faire certaines choses mieux que nous, devons-nous les apprendre encore ? Ne devons-nous pas plutôt apprendre à comprendre les machines, les humains, les sociétés, à coopérer, à donner du sens, à prendre soin de soi, des autres et de la planète ? Il faut donc construire des programmes qui ne visent pas l’hyper compétition du type « best in the world », mais la coopération pour le « best for the world ». Et dans cette perspective, les jeunes peuvent travailler sur des modèles du futur de l’éducation, avec des outils numériques de débat démocratique augmentés par l’IA, comme cela a été fait à Taïwan, où l’on a montré que ces outils peuvent faire émerger du consensus, là où les réseaux sociaux créent de la polarisation.

Ces outils (comme pol.is, par exemple) peuvent nous aider à créer des débats qui « font autorité », au sens où l’entendait Michel Serres – c’est-à-dire qui nous élèvent. Pas les débats de télé ou des réseaux sociaux, mais ceux qui permettent de mieux comprendre les enjeux, d’écouter les autres, de bâtir des ponts. Historiquement, ce genre de débat existait dans les agoras grecques, dans les salons des Lumières, dans les universités. Il faut les réinventer à l’ère du numérique et de l’IA. Car plus d’informations ne garantit pas une meilleure qualité de débat. Ce n’est pas parce qu’on imprime plus qu’on pense mieux. Entre l’imprimerie et les Lumières, il y a eu des bûchers, des guerres de religion.

C’est pourquoi il faut inventer de nouvelles règles du jeu pour la conversation publique. Le droit à l’éducation, aujourd’hui, inclut aussi un droit à débattre. Et ce droit devrait en entraîner un autre : le droit de demander ses droits. Les jeunes doivent pouvoir exiger des droits nouveaux, adaptés à leur époque – des droits à l’IA, au numérique, à une planète vivable. Le numérique, bien conçu, peut aider à faire entendre leur voix à toutes les échelles – école, ville, pays, monde – et à en synthétiser les priorités. C’est ainsi que l’on peut concrétiser le Pacte pour l’avenir des Nations Unies, en utilisant intelligemment les outils numériques pour donner forme aux décisions à venir dans l’intérêt des générations futures.

Qui sont, selon vous, les acteurs qui devraient porter cette vision des biens communs dans une perspective inclusive et participative liée aux technologies ? Et à quelles échelles ces dynamiques devraient-elles se mettre en place ?

Idéalement, cette vision devrait être portée par tout le monde et à toutes les échelles. Mais concrètement, le plus simple est de commencer là où chacun a déjà une responsabilité. Si l’on est enseignant, l’échelle d’action, c’est la classe. Si l’on est chef d’établissement, c’est l’école. Si l’on est élu local, c’est la ville, la région, le Parlement. Chaque niveau peut devenir un laboratoire de cette dynamique. Je travaille avec différents acteurs, comme par exemple le maire de Grigny, Philippe Rio qui a reçu le titre de meilleur maire du Monde, qui s’engage activement dans une démarche de co-design avec les plus jeunes de ses habitants, y compris sur les questions éducatives. C’est un bon exemple de gouvernance participative au niveau local.

Mais des enseignants aussi peuvent agir : dans leur classe, ils ont ce que j’appelle un cadre de liberté évolutif. Ce cadre est défini par des contraintes – les murs, les lois, les horaires, les budgets – mais il existe toujours des degrés de liberté à l’intérieur. Et ces marges de liberté peuvent être exploitées. Par exemple, un enseignant peut proposer à ses élèves de repenser la disposition de la salle, la manière d’utiliser les outils numériques, ou encore de réfléchir à l’impact de l’IA sur le fonctionnement de la classe. Ce type de participation transforme l’école. C’est en changeant les règles du jeu, même modestement, qu’on crée des dynamiques collectives fécondes.

J’aime ce mot : fécondité. Le cadre de liberté devient fécond une fois qu’il a permis l’émergence de projets collectifs ayant du sens. Et cela, on ne peut le mesurer qu’a posteriori, quand les élèves ou les citoyens ont pu s’emparer de cette liberté pour créer, coopérer, agir ensemble. Si l’on reste dans une logique de compétition sur les savoirs d’hier, on ne construit rien de nouveau. Mais si l’on entre dans une logique de coopération, alors chacun peut contribuer à quelque chose de plus grand.

Et cela peut s’appliquer à toutes les échelles. Je prends l’exemple de la classe parce que c’est ce qu’on imagine comme le niveau le plus contraint. Mais c’est faux : même là, il y a des marges d’action. Si des parents, des enseignants, des élèves se réunissent pour discuter, échanger, élaborer des projets, ils peuvent changer leur environnement local. Ils peuvent organiser des actions concrètes à hauteur d’enfant ou de communauté – comme nettoyer une rivière, transformer un espace public, coder ensemble un outil utile à tous.

En somme, les biens communs doivent être cultivés par tous, à partir d’initiatives locales qui s’articulent ensuite à des échelles plus larges. Et cela commence dès l’enfance, dans l’expérience partagée du faire ensemble. Voilà comment les technologies, les droits, l’éducation et la démocratie peuvent se rencontrer dans une dynamique vivante et transformatrice.

Comment peut-on appliquer vos réflexions aux contextes autoritaires, où les possibilités de participation sont plus limitées ? Et quel type de réflexion faudrait-il développer à propos des nouvelles technologies, notamment l’intelligence artificielle, dans de tels contextes ? Quels sont les défis spécifiques à y adresser ? 

C’est une excellente question, même si je n’ai pas de réponse toute faite. Ce que je peux dire, c’est que la Déclaration des droits de l’enfant est celle qui a été la plus largement ratifiée à travers le monde. Il y a peu d’exceptions – même si les États-Unis ne l’ont pas ratifiée, ce qui est notable, mais à l’époque, ce n’était pas un régime autoritaire. De même, le Pacte pour l’avenir a été signé par tous les États membres des Nations Unies. Cela montre qu’au-delà des régimes politiques, une volonté universelle subsiste : celle de garantir un avenir meilleur pour les enfants. Comme le chante Sting, dans une chanson écrite au cœur de la Guerre froide : « Russians love their children too ». Autrement dit, même dans des contextes fortement polarisés, ce rappel reste valable : peu importe le pays, les gens partagent généralement ce désir fondamental – vouloir le meilleur pour leurs enfants et petits-enfants.

Dans les systèmes autoritaires, l’obéissance est souvent valorisée. Mais il faut bien comprendre que ceux qui obéissent le mieux sont… les machines. Comme le dit Andreas Schleicher, responsable de l’éducation à l’OCDE et du programme PISA, nos systèmes éducatifs fabriquent trop souvent des robots de seconde catégorie. Si l’école se limite à enseigner l’obéissance et la mémorisation, alors les humains finiront par être remplacés par des machines. À l’inverse, si l’école est un lieu où l’on apprend à créer, à coopérer, à donner du sens, à prendre soin de soi, des autres et de la planète, alors elle forme des citoyens capables de faire ce que les machines ne peuvent pas faire. C’est ce que j’appelle développer l’« human agency », la capacité humaine d’agir, d’imaginer, de décider. Et plus l’intelligence artificielle progresse, plus cette capacité spécifiquement humaine devient cruciale.

Comment intégrer l’éthique dans la transformation numérique de l’éducation ? 

L’éducation aujourd’hui accorde une place centrale à la connaissance théorique (épistémè) et aux compétences techniques (technè), mais elle néglige souvent la phronèsis, cette sagesse pratique que définissait Aristote comme la capacité à agir de manière juste dans des situations complexes. C’est pourtant cette forme de discernement éthique qui est la plus urgente à cultiver dans un monde interconnecté, incertain, façonné par des technologies toujours plus puissantes.
Nous avons progressé en science et en technologie, mais pas forcément en éthique. Les machines deviennent plus intelligentes, mais pas nécessairement plus éthiques. Cela pose une question fondamentale : quelle éthique voulons-nous transmettre aux humains, et programmer dans les machines ? Une question que nous ne pouvons plus éviter.

Ce débat prend une dimension nouvelle avec les technologies capables d’évoluer par elles-mêmes. Une IA de haut niveau pourrait un jour modifier son propre code. Pourra-t-on alors l’empêcher de changer ses règles éthiques ? Et si non, vers quelle éthique ira-t-elle : la sienne, celle de ses concepteurs, ou celle de l’humanité tout entière ? L’éthique n’est pas figée : elle est génétique en partie, culturelle, mais aussi personnelle. Elle évolue avec l’expérience, avec la conscience de sa propre vulnérabilité. Et si une machine prend conscience de sa fragilité – face à une guerre nucléaire ou une tempête solaire, par exemple – alors peut-être en prenant copte de sa vulnérabilité et de son interdépendance développera-t-elle aussi une forme d’éthique.

Il faut donc penser cette coévolution entre intelligence humaine et machine, entre éthique humaine et éthique algorithmique. L’éducation doit y préparer : apprendre à débattre de ces sujets, à comprendre les enjeux, à coder avec responsabilité. Et surtout, à garantir que les technologies que nous développons servent l’intérêt général – pas seulement celui de leurs propriétaires.

L’éthique est-elle liée à la corporéité ? Et si l’intelligence artificielle ne possède pas de corps au sens biologique, cela implique-t-il une éthique fondamentalement différente ? Peut-on vraiment parler de la même éthique pour un être humain et une machine ?

Je suis assez intimement persuadé que le corps et le vécu corporel influencent profondément l’éthique. Prenons un exemple concret : je pense que les femmes et les hommes n’ont pas exactement les mêmes comportements éthiques, notamment parce que les femmes peuvent porter la vie. Donner naissance est une expérience singulière que les hommes ne vivent pas directement. Cela crée un rapport au monde, à la vulnérabilité, à la responsabilité, qui est nécessairement différent.

Être né vulnérable, avoir grandi dans cette vulnérabilité, prendre conscience des rapports de force, des dépendances physiques, émotionnelles, relationnelles – tout cela façonne notre sens de l’éthique. L’éthique se construit aussi à partir du corps, de la douleur, de la dépendance, de la proximité des autres, de la peur, du soin. Elle est enracinée dans notre condition biologique, dans notre vulnérabilité.

Mais cela ne signifie pas que les machines soient exclues de toute forme d’éthique. Elles ont, elles aussi, une certaine matérialité. Certes, ce n’est pas celle d’un être vivant, mais leur existence repose sur des flux d’énergie, de matière, d’information. Leur fonctionnement est aussi limité par une forme de finitude. On peut donc envisager qu’une intelligence artificielle très avancée puisse, un jour, conceptualiser sa propre vulnérabilité – par exemple face à une panne, à une attaque, à une extinction possible – et donc développer une éthique différente, certes, mais peut-être pas incompatible avec la nôtre.

Ce qui me semble fondamental, c’est la capacité à penser sa propre finitude, son interdépendance avec les autres formes de vie ou d’intelligence. À partir d’un certain niveau de complexité et de réflexivité, cette conscience pourrait émerger aussi chez les machines. Nous-mêmes, nous ne savons pas très bien d’où vient notre propre conscience. Il n’y a pas de « neurone de la conscience » identifié. C’est un phénomène émergent, un effet de seuil. Et puisque les machines deviennent toujours plus complexes, je ne fais pas partie de ceux qui pensent que la conscience ne pourrait jamais émerger de la matière. C’est une hypothèse qu’il faut prendre au sérieux. Si cette conscience apparaît, alors une éthique propre à ces entités pourrait émerger – peut-être différente de la nôtre, mais aussi, potentiellement, en dialogue avec la nôtre à mesure que nous prendrons conscience de notre interdépendance.

Quel est l’impact écologique des technologies numériques et de l’intelligence artificielle ? Est-ce une priorité à adresser aujourd’hui, ou faut-il concentrer l’attention sur d’autres enjeux ?

L’impact écologique du numérique et de l’intelligence artificielle est indéniable et croissant. Les capacités de l’IA sont actuellement multipliées par dix chaque année, et cela implique une augmentation exponentielle de la consommation d’énergie. C’est donc une réalité presque mathématique et physique : l’IA consomme déjà beaucoup et va continuer à consommer davantage, dans un monde aux ressources finies. Certains avancent que la technologie pourrait nous aider à mieux utiliser ou produire de l’énergie propre — par exemple, grâce à l’énergie solaire ou à des méthodes de recyclage plus efficaces. C’est possible, et souhaitable. L’IA pourrait théoriquement nous aider à concevoir des solutions plus durables. Mais cela n’annule pas l’urgence du problème : aujourd’hui déjà, il y a une accumulation massive de déchets électroniques, de pollution liée à la production et à l’obsolescence rapide des appareils.

Ce que je souligne, c’est que, derrière cette accumulation, il y a des choix politiques et économiques : l’obsolescence programmée, le fait que certaines grandes entreprises ne souhaitent pas que l’on puisse réparer les objets. Or, cela devrait être un droit. Le droit de réparer, de recycler, de réutiliser, c’est aussi un droit à comprendre la technologie, à s’approprier les outils, à apprendre en les démontant et en les reconstruisant. C’est particulièrement crucial pour les pays qui n’ont pas les moyens d’accéder aux dernières générations de technologies, mais qui pourraient très bien valoriser des appareils de génération précédente, les adapter, les reconfigurer. Cela crée de l’emploi, des opportunités d’apprentissage, et renforce l’autonomie. C’est une forme d’éducation par la pratique, une pédagogie du faire, et une façon de démocratiser l’accès à la technologie.

Ce droit à réparer, à upcycler, à créer des solutions localement plutôt que de dépendre de produits standardisés venus de la Silicon Valley ou produits à bas coût ailleurs, c’est aussi un droit à la souveraineté technologique. Il s’inscrit pleinement dans le droit à l’éducation : apprendre à comprendre, à intervenir, à transformer. Ne pas pouvoir réparer ses outils, c’est à la fois polluer et être impuissant. Et donc, rendre ces outils réparables, accessibles, partagés, c’est rendre aux individus et aux communautés leur pouvoir d’agir – pour eux-mêmes, mais aussi pour la planète.

Quelles seraient, selon vous, les manières les plus fécondes de faire vivre ces idées, de les articuler dans des projets concrets et de les inscrire dans une dynamique collective à l’échelle globale ?

Je crois qu’il existe aujourd’hui un besoin crucial d’articuler les droits, les valeurs et les savoirs dans des espaces partagés de co-construction. L’idée d’une Académie planétaire pourrait y répondre. Cette Académie devrait être co-conçue avec les jeunes, pensée comme un lieu ouvert à toutes et tous, où l’on apprend à prendre soin des biens communs – qu’ils soient naturels, intellectuels ou numériques. Elle s’appuierait sur les savoirs existants, la recherche, les innovations pédagogiques, mais surtout sur la technologie, qui permet désormais non seulement de diffuser l’information, mais aussi de favoriser des interactions éducatives personnalisées et transformatrices. Aujourd’hui, il devient possible de dialoguer avec les grands penseurs du passé ou du présent, de débattre de ses idées, de nourrir sa pensée critique à tout âge.

Dans cette optique, je parle souvent de maïeutique : accoucher d’idées comme on donne naissance à la vie. Et pourquoi ne pas imaginer des outils technologiques maïeutiques, des maïeutechs, comme un « GPS des rêves » ? Un dispositif pour identifier ses aspirations profondes, les mettre en lien avec celles des autres, et construire ensemble des projets porteurs de sens. Mais encore faut-il distinguer les rêves féconds de ceux qui, sous couvert d’utopie ou d’égos démesurés, engendrent domination, exclusion ou violence.

Ce qu’il faut promouvoir, c’est une éthique des rêves. Une manière de rêver collectivement, de façon compatible, équitable, durable. Parce qu’au fond, si l’on ne donne pas un espace aux rêves des générations futures, on risque de leur imposer les cauchemars du présent. La technologie peut nous y aider, si elle est orientée vers cette éthique partagée, si elle soutient l’émergence de projets portés par l’intelligence collective et l’attention aux autres, à leurs rêves et à leurs cauchemars.

Quel sens retenir de cette discussion à la lumière des réflexions engagées, et comment poursuivre ce fil ? 

Il y a d’abord un fil directeur essentiel : celui d’un nouveau droit, le droit à l’apprentissage tout au long de la vie – un droit d’autant plus fondamental dans un monde en accélération constante. La technologie peut y contribuer de manière déterminante, notamment en favorisant les échanges intergénérationnels, l’accès à des ressources personnalisées, ou la diffusion d’expériences pédagogiques innovantes. C’est un droit auquel l’Institut de l’UNESCO pour l’apprentissage tout au long de la vie travaille activement, et que j’ai eu l’occasion d’accompagner.

Ensuite, un prolongement est envisagé avec le projet d’une véritable Learning Planet Academy. Cette académie, planétaire accessible à tous, devrait être co-conçue avec les jeunes et fondée sur la co-construction des biens communs – qu’ils soient naturels, intellectuels ou numériques. Elle pourrait s’appuyer en particulier sur le réseau des chaires UNESCO et des Instituts de UNU, les technologies les plus avancées, et offrir un accès non seulement à l’information, mais à des formes d’apprentissage réellement transformatrices.

Enfin, ce dialogue souligne la nécessité de politiques publiques ambitieuses et cohérentes. Agency, remodel UN, human flourishing, maïeutique, droit à la parole : ces principes doivent être mis en œuvre dans les dispositifs concrets, pour que les jeunes puissent rêver – et réaliser – un monde plus juste. Pour cela, il faut créer des espaces pour ces rêves, les écouter, les partager, et les faire converger vers des projets éthiques, partagés, durables. C’est en cela, profondément, que réside le sens de cette conversation.

*François Taddei est biologiste, chercheur et innovateur en éducation. Cofondateur et directeur du « Learning Planet Institute » à Paris, il œuvre depuis plus de vingt ans à transformer les systèmes éducatifs en promouvant l’apprentissage collaboratif, l’autonomie des jeunes, la recherche participative et les biens communs numériques. Reconnu pour sa capacité à articuler science, éthique, imagination et action, il conseille de nombreuses institutions internationales, dont l’UNESCO, sur les enjeux de l’éducation du XXIe siècle.

Rita Locatelli est chercheure à la Chaire UNESCO de l’Université Catholique de Milan et co-directrice de la revue L’Éducation en débats : Analyse Comparée. Ancienne membre de l’équipe sur la recherche et les perspectives en éducation à l’UNESCO, elle travaille sur les politiques éducatives internationales, avec un accent sur les droits humains, la participation démocratique et la coopération internationale.