Bien avant l’élan pour l’IA générative, Hub France IA œuvrait déjà à l’accélération de l’adoption de l’intelligence artificielle en France. Caroline Chopinaud, directrice générale de l’association en partage les perspectives de diffusion dans l’Hexagone.
Caroline Chopinaud (Hub France IA) : "La France n’arrive pas encore à retenir et faire rayonner des solutions françaises"
Décideurs. De quelle façon le Hub France IA parvient-il à fédérer les acteurs de l’intelligence artificielle ?
Caroline Chopinaud. À l’origine, c’est dans le sillage d’une stratégie digitale portée par Cédric Villani, que l’association a été créée en 2017. Parmi nos 140 membres dont 100 start-up, nous avons fédéré des profils techniques et business, des personnes expertes sur leur domaine issues d’entreprises, d’écoles mais aussi d’institutions pour tracter tous ceux qui s’intéressent à l’IA et accélérer son adoption par le tissu économique français.
Quel regard portez-vous sur le marché de l’IA en France ?
L’IA est développée soit dans les grandes entreprises, soit dans des start-up ou petites structures expertes sur le sujet, auxquels les dirigeants ne pensent pas, faute de point de convergence avec elles. D’où cette tendance à travailler avec les mêmes et privilégier les ESN massives, ou encore Microsoft et Amazon.
"Encore trop d’acteurs, qui ont atteint des solutions avancées, finissent par partir aux États-Unis"
La France, qui s’intéresse à l’IA depuis longtemps, met en place des plans stratégiques pour accélérer son développement. Mais encore trop d’acteurs, qui ont atteint des solutions avancées, finissent par partir aux États-Unis. Le problème est de satisfaire les talents et les belles start-up. La France n’arrive pas encore à retenir et faire rayonner des solutions françaises. Pour Hub France IA, en tant qu’association qui soutient le passage à l’échelle des start-up, c’est toujours dommage de les voir partir.
Pour remédier à ce "brain drain", quelles pistes envisagez-vous ?
Il faudrait faire grandir les PME et ETI et leur faire dépasser leurs réticences vis-à-vis de l’IA, afin que celle-ci ne se diffuse pas uniquement au sein des grands groupes. Pour que tous puissent comprendre à quoi elle sert et comment elle fonctionne, le gouvernement a lancé plusieurs programmes de financement. Un premier programme, IA Booster, a été officiellement ouvert en juin 2023, destiné à financer les projets d’IA des PME et ETI, avec un subside de 25 millions d’euros. Puis, un second programme doté d’une enveloppe de 700 millions d’euros dédiés à la mise en place de formations de nouveaux professionnels de l’IA. Guillaume Avrin, coordinateur national pour l'intelligence artificielle, appelle ces professionnels, qui appartiennent à tous les métiers où l’IA sera bientôt davantage intégrée, les "IA + X".
D’autres financements existent pour se former et passer à l’échelle, mais les entreprises ont du mal à s’y retrouver. Certaines PME nous sollicitent uniquement dans ce but. Pareillement, nous pilotons depuis fin 2019, pour la région Île-de-France, un dispositif de financement destiné aux PME et ETI franciliennes qui permet, dans la même dynamique qu’IA Booster, de lancer son premier projet d’IA en étant accompagné par un prestataire de confiance. Aujourd’hui, 80 projets sont financés dans le cadre de ce dispositif.
Comment contribuez-vous à rendre plus lisible l’écosystème start-up ?
Nous avançons sur plusieurs fronts. D’abord avec un projet de cartographie des start-up que nous menons depuis fin 2020 avec nos partenaires européens, notamment en Allemagne, Suède et aux Pays-Bas, pour lequel nous gérons le volet France. Chaque année, cette cartographie est actualisée. Nous avons également lancé une grande phase de sourcing sur plusieurs mois, puis nous avons mis à disposition un comité d’experts. Son rôle est d’analyser toutes les demandes de référencement pour s’assurer que les start-up mises en lumière dans la cartographie sont de confiance. Cette cartographie, qui se veut un outil opérationnel, disponible pour tous en ligne, cible les entreprises à la recherche de solutions ou de partenaires IA, les grands groupes mais également les investisseurs et le gouvernement.
"Cette cartographie, disponible pour tous en ligne, cible les entreprises à la recherche de solutions ou de partenaires IA"
En parallèle, nous sommes impliqués dans plusieurs projets à l’échelle européenne, notamment celui de la plateforme AI-on-Demand. Nous sommes engagés à l’international dans le cadre du Partenariat mondial sur l’intelligence artificielle, pour déployer des sites en mesure de fournir les informations, contenus et cas d’usage pour lancer des projets IA, ainsi qu’un accès à des fournisseurs de confiance.
Qu’en est-il de la mise en place des normes propres à l’IA ?
Puisqu’il faut des normes pour comprendre comment rendre opérationnelle la loi, le Hub France IA travaille avec l’Afnor sur une plateforme de sensibilisation à la normalisation de l’IA. Depuis la mi-2022, nous avons pour démarche de sensibiliser toutes les entreprises à l’encadrement positif des normes et compréhension de la mise en conformité. C’est en bonne voie. Nous allons également nous impliquer de plus en plus dans la définition de normes harmonisées pour l’IA au sein de l’Afnor.
Que pensez-vous de l’AI Act ?
D’un point de vue réglementaire, l’Europe est en avance. L’AI Act installe fondamentalement la notion d’IA de confiance. Il délimite non seulement la notion de responsabilité de l’IA pour les secteurs à haut risque, ceux où le citoyen est directement impliqué, mais aussi les principes de l’IA éthique. L’Europe éveille les consciences : elle montre sa volonté de faire grandir l’ensemble des acteurs impliqués dans les projets d’IA et que les non-Européens s’accordent sur les mêmes principes d’IA.
Il faut comprendre que, aujourd’hui encore, l’usage de l’intelligence artificielle reste flou pour les usagers et les citoyens. Des peurs persistent autour de ces technologies : perte de travail, crainte de la transformation des entreprises, perte de responsabilité. L’AI Act a très bien identifié les risques de biais et d’erreurs, c’est un moyen de cadrer les usages pour rassurer sur les mises en œuvre de l’IA dans des systèmes à haut risque.
L’AI Act met en avant la notion de biais. Comment les entreprises peuvent-elles y remédier ?
Ce sont les usages qui correspondent à un risque et non la technologie. Les biais constituent un risque sérieux. Qu’il s’agisse d’IA générative ou prédictive, il y en a toujours eu. Il faut en avoir conscience et encadrer. Dans tous les cas, il existe de nombreux risques liés à la mise en œuvre de systèmes d’IA en particulier lorsqu’ils touchent à des interactions humaines. Les projets qui fonctionnent et qui passent à l’échelle sont ceux qui incluent une solide analyse des risques et un suivi de maintenance opérationnelle.
"Ce sont les usages qui correspondent à un risque et non la technologie"
Aujourd’hui, des start-up s’attèlent à surveiller et évaluer les risques liés aux systèmes d’IA pour évaluer les biais, l’explicabilité, la robustesse ou les performances. Des éditeurs déjà positionnés sur cette problématique, comme Yooi, Giskard, Numalis, Naaia ou des cabinets de conseil comme Axionable, Quantmetry ont mis en place des méthodes et des outils pour permettre aux entreprises de s’outiller et limiter les risques.
Propos recueillis par Alexandra Bui