Démystifier l’intelligence artificielle – Lui donner un sens (retour sur la conférence de Cédric Villani)
ll y a des gens qui sont comme ça. Brillants, convaincus et convaincants. Cédric Villani appartient à cette catégorie.
Si vous n’avez pu assister, avec les 400 autres personnes, à sa « démonstration » d’une IA qui n’est rien d’autre que la production d’algorithmes, il vous reste des lectures, et peut-être celle de son rapport parlementaire pour donner un sens à l’intelligence artificielle
Mais c’était certainement plus facile à comprendre assis confortablement dans les fauteuils de la salle de la Prade. Alors je vous raconte l’histoire.
D’abord celle de « l’ algorithme ». C’est une une histoire qui a débuté il y a fort longtemps. En 1700 av. J.-C . Le professeur Villani s’est mis à notre niveau d’élèves attentionnés et nous a expliqué comment des hommes ont calculé la racine carrée de 2 « créant » ainsi le premier algorithme. Rien d’autre finalement qu’une suite de calculs répétitifs. Lumineux ! A quoi ça leur servait ? Probablement à rien. Mais c’est comme ça. Il y a des hommes qui cherchent, il y a des hommes qui trouvent … et ça sert plus tard…
Et Cédric Villani déroule l’histoire tout en arpentant énergiquement la scène. Un silence total, un silence d’écoute. Certains comme moi sont probablement fascinés par tant de connaissances, de clarté,. Tout devient simple et évident, lumineux. L’histoire de la technologie, de l’informatique, de la toile (le web) , des puissances de calculs qui ne cessent d’augmenter de l’algorithme des moteurs de recherche.
Et ça devient rassurant. Nous simples citoyens ne savons pas ce qui se passe, entre notre question à un moteur de recherche et les résultats qu’il nous donne. A vrai dire nous n’avons pas besoin de le savoir. Nous l’utilisons le plus souvent avec confiance. Tout comme ces médecins qui sont aujourd’hui assistés dans l’analyse des résultats des radio devenant plus rapides et plus efficaces dans leurs diagnostiques.
Nous avons juste « oublié » qu’il y a derrière la question et le résultat, des algorithmes, autrement dit de l’intelligence artificielle.
Chat GPT, Le chat, deepseek… peuvent rapidement, très rapidement, efficacement, très efficacement, accomplir ces tâches, que nous avons mis du temps à apprendre et maîtriser . Le calcul , les problèmes à résoudre, les résumés, la construction d’une argumentation, … Comme si la machine était devenue plus intelligente que nous. Et pourtant la machine à calculer qui fonctionne avec un algorithme existe depuis longtemps maintenant. Nous nous en servons sans imaginer pour autant qu’elle est plus intelligente que nous.
Voilà. C’est simple. Quand un algorithme fonctionne bien on ne l’appelle plus intelligence artificielle.
Mais aujourd’hui les fakes news, les droits d’auteur pillés, les images générées, les voix volées, les questionnements sur les effets de cette IA générative dans notre société, … questionnent de nouveau.
L’IA fait le buzz et c’est le cauchemar d’un « algorithme qui penserait » à notre place qui envahit les media.
Pourquoi perdons nous confiance? De quoi avons-nous peur ? Sur quoi fantasmons nous ? La puissance de la « machine » qui pourrait faire toute seule sans nous ? ou bien peur que certains humains puissent aujourd’hui et dans le futur prendre le contrôle.. On pense à ce qui se passe aux Etats-Unis actuellement, à un certain Elon Musk qui voudrait racheter Open AI (Chat GPT)…
L’impression qu’avec leurs milliards, des hommes à la puissance financière comparable à celle de pays comme le Danemark ne jouent pas seulement avec le feu mais surtout avec nos libertés. Et si un des GAFAM * se mettait à se prendre pour Dieu. Vertigineux…
Cédric Villani a donné quelques références de lectures. Une parmi d’autres. Le regard de Damasio. Reconnu pour son travail autour de futurs possibles et dystopiques liés à l’avènement d’une société de contrôle, il donne une vue remarquable – inatteignable par des essais, rapports, conférences – sur ce que donnerait concrètement, humainement, un effondrement de civilisation. (disponible sur la médiathèque numérique du Lot si vous ne le trouvez pas en bibliothèque).
Je terminerai comme Cédric Villani a débuté sa conférence. Sur les 3 couches.
Dans cette histoire il y a 3 couches qui se superposent.
- La première: est mathématique = L’algorithme .
- La deuxième est la couche technologique
- La dernière est politique. C’est la plus difficile à réaliser
Aux questions plutôt « inquiètes » posées par la salle, Cédric Villani qui n’est pas seulement mathématicien mais aussi homme politique, a assuré que les réponses n’étaient pas techniques, mais humaines.
Il s’en était expliqué dans une interview et a renouvelé son propos « Ce qu’il faut c’est de la volonté politique… Ce qui pose problème, c’est le facteur humain ». .. « Le grand public n’en a pas conscience mais la France et l’Europe ont fait le job d’une réglementation très complexe. Mais ce n’est plus l’enjeu : l’enjeu n’est plus dans la règle, il est dans l’action. »
« L’intelligence artificielle ne fait que contribuer aux savoirs et aux pratiques ». Il nous reste à nous, les citoyens, à nous impliquer, nous engager, pour que nos représentants politiques soient ceux qui veulent que l’IA ne reste que cela: une contribution aux savoirs et aux pratiques.
*GAFAM : Google (Alphabet), Apple, Facebook (Meta), Amazon et Microsoft
Je me suis livrée à un petit jeu en demandant à Mistral (notre IA française) comment éviter les dérives de l’IA
Sa réponse :
Éviter les dérives de l’intelligence artificielle (IA) est un sujet crucial qui nécessite une approche multidimensionnelle. Voici quelques stratégies clés :
- Éthique et Réglementation :
- Cadres Éthiques : Développer et adopter des cadres éthiques pour guider le développement et l’utilisation de l’IA. Cela inclut des principes tels que la transparence, l’équité, la responsabilité et le respect de la vie privée.
- Réglementation : Mettre en place des régulations gouvernementales pour encadrer l’utilisation de l’IA, notamment en matière de protection des données personnelles et de prévention des discriminations.
- Transparence et Explicabilité :
- Modèles Interprétables : Utiliser des modèles d’IA dont les décisions peuvent être expliquées et comprises par les utilisateurs.
- Auditabilité : Mettre en place des mécanismes permettant d’auditer les systèmes d’IA pour vérifier leur conformité aux normes éthiques et légales.
- Diversité et Inclusivité :
- Équipes Diversifiées : Constituer des équipes de développement diversifiées pour éviter les biais inconscients dans la conception des algorithmes.
- Données Représentatives : Utiliser des jeux de données représentatifs de la diversité de la population pour entraîner les modèles d’IA.
- Sécurité et Robustesse :
- Cybersécurité : Protéger les systèmes d’IA contre les cyberattaques et les utilisations malveillantes.
- Tests de Robustesse : Effectuer des tests rigoureux pour s’assurer que les systèmes d’IA sont robustes et résistants aux perturbations.
- Éducation et Sensibilisation :
- Formation : Former les développeurs, les utilisateurs et le grand public aux enjeux éthiques et aux bonnes pratiques en matière d’IA.
- Sensibilisation : Sensibiliser le public aux risques potentiels de l’IA et aux moyens de les atténuer.
- Responsabilité et Gouvernance :
- Responsabilité : Définir clairement les responsabilités en cas de dérives ou de dommages causés par l’IA.
- Gouvernance : Mettre en place des structures de gouvernance pour superviser le développement et l’utilisation de l’IA.
- Recherche et Innovation :
- Recherche Éthique : Encourager la recherche sur les aspects éthiques de l’IA et le développement de technologies responsables.
- Innovation Responsable : Promouvoir l’innovation tout en respectant les principes éthiques et les régulations en vigueur.
En combinant ces différentes approches, il est possible de minimiser les risques de dérives et de maximiser les bénéfices de l’IA pour la société.
Voilà. Du travail d’humain… assisté peut-être par quelques algorithmes ….