Au cœur de mes travaux se trouve une interrogation fondatrice qui dépasse largement les problématiques classiques d'optimisation algorithmique ou de performance locale : comment concevoir des systèmes robotiques capables de prendre des décisions pertinentes, adaptatives et explicables dans des environnements réels, dynamiques et intrinsèquement partagés avec des humains ?
Cette question engage une réflexion de fond sur la nature même de l'intelligence artificielle incarnée. Agir de manière autonome dans le monde physique ne consiste pas uniquement à réagir à des stimuli ou à maximiser une fonction de récompense abstraite ; cela suppose une compréhension structurée de l'environnement, la capacité d'anticiper ses évolutions possibles, et l'aptitude à inscrire l'action du robot dans un cadre social, fonctionnel et éthique compréhensible par l'humain.
Cette perspective m'a progressivement conduit à m'éloigner de deux paradigmes dominants de la robotique contemporaine, dont les limites apparaissent dès lors que l'on cherche à dépasser des scénarios contrôlés ou artificiellement simplifiés.
D'un côté, les architectures purement réactives, issues de la behavior-based robotics et des architectures de subsomption, offrent une robustesse et une rapidité d'exécution indéniables, mais au prix d'une absence quasi totale de capacité prospective. Un robot réactif peut éviter un obstacle immédiat, mais il est fondamentalement incapable de raisonner sur les conséquences différées de ses actions, par exemple lorsqu'un obstacle est mobile, manipulable ou socialement médié par un humain.
De l'autre côté, les approches d'apprentissage profond end-to-end ont démontré des performances spectaculaires sur des tâches de perception ou de navigation, mais elles reposent sur des représentations distribuées et opaques, rendant les décisions produites difficiles, voire impossibles, à expliquer, justifier ou auditer. Or, dans des contextes tels que la robotique d'assistance, la collaboration homme-robot ou les environnements partagés, l'opacité décisionnelle constitue un obstacle majeur à l'acceptabilité, à la confiance et à la sécurité.
Face à ces constats, je défends une troisième voie, que je qualifie de robotique cognitive frugale et explicable. Cette approche repose sur l'idée que l'autonomie robotique ne peut être robuste et socialement intégrable qu'à condition de s'appuyer sur des représentations explicites, des mécanismes de simulation interne et des processus décisionnels dont la logique est traçable par construction.
Cette position s'inspire des sciences cognitives et des neurosciences computationnelles, non pas dans une logique biomimétique naïve visant à reproduire le cerveau humain, mais dans une démarche de compréhension des principes computationnels qui permettent aux êtres vivants de raisonner, d'anticiper et d'agir efficacement dans des environnements complexes avec des ressources limitées.
Un premier pilier fondamental de cette vision réside dans l'usage de représentations multi-niveaux, allant de la géométrie brute à la sémantique et à l'action située. Un robot ne peut se contenter d'une perception du monde réduite à des pixels ou à des nuages de points non structurés.
Cette stratification n'est pas un simple empilement de couches indépendantes, mais l'expression d'une hypothèse cognitive centrale : l'abstraction est la clé de la généralisation. Un robot capable de raisonner sur la notion abstraite de passage contrôlé peut transférer ses compétences entre différents types de portes sans réapprentissage exhaustif.
Le second pilier de ma démarche concerne le rôle central de la simulation dans le processus décisionnel. Dans ma conception, la simulation n'est pas un outil de validation a posteriori, mais un mécanisme cognitif a priori, directement impliqué dans la prise de décision.
Cette approche s'inspire des travaux sur la simulation mentale et les modèles internes en psychologie cognitive et en neurosciences, selon lesquels les agents biologiques évaluent les conséquences possibles de leurs actions en explorant mentalement plusieurs futurs plausibles avant d'agir.
Concrètement, cette idée se traduit dans mes travaux par l'utilisation de systèmes multi-agents comme support de simulation interne. Les entités perçues dans l'environnement réel sont modélisées comme des agents dotés de propriétés physiques, de capacités d'action et de contraintes spécifiques. Le robot lui-même est intégré à ce monde simulé en tant qu'agent cognitif.
Avant toute action engageante, plusieurs scénarios sont simulés, évalués et comparés selon des critères explicitement modélisés tels que le coût énergétique, le risque de collision, la durée d'exécution ou l'acceptabilité sociale. L'exécution réelle de l'action est ensuite supervisée par une comparaison continue entre les prédictions issues de la simulation et les observations effectives.
Le troisième pilier, qui constitue aujourd'hui l'axe le plus structurant de mes recherches, est celui de la frugalité cognitive et de la méta-décision. Un système véritablement intelligent ne se contente pas de décider quoi faire ; il doit également décider comment décider.
Face à une situation donnée, plusieurs stratégies décisionnelles sont possibles, allant de la planification complète à partir de modèles symboliques, à la réutilisation d'expériences passées, à l'adoption de comportements réactifs simples, voire à la délégation explicite de la décision à un humain. Le choix entre ces stratégies ne doit pas être arbitraire, mais guidé par une évaluation rationnelle de critères tels que :
Cette approche s'inscrit dans la tradition de la rationalité limitée, telle que formulée par Herbert Simon et formalisée par Russell et Wefald, tout en s'en distinguant par un ancrage concret dans la robotique embarquée.
Cette frugalité cognitive dépasse la simple optimisation technique ; elle porte une dimension éthique et écologique. À l'heure où les systèmes autonomes se multiplient, intégrer la parcimonie computationnelle comme principe de conception contribue à une robotique plus soutenable et socialement responsable.
Mes choix méthodologiques découlent directement de cette vision :
À travers l'ensemble de ces travaux, je défends l'idée que l'avenir de la robotique autonome ne réside pas dans une course à la puissance de calcul, mais dans la conception de systèmes capables de mobiliser la bonne stratégie au bon moment.
Une robotique explicable par construction, anticipative par simulation, frugale par principe et collaborative par compréhension constitue, selon moi, une voie crédible et nécessaire pour inscrire durablement les robots dans notre quotidien.
Mes contributions passées et mes ambitions futures s'inscrivent dans cette perspective, à l'intersection de l'IA symbolique, de l'apprentissage automatique, des sciences cognitives et de la robotique embarquée, avec pour objectif de donner aux robots la capacité de comprendre avant d'agir, d'expliquer ce qu'ils font, et de savoir, lorsque la situation l'exige, ne pas décider seuls.