À écouter les discours industriels, l’intelligence artificielle serait la nouvelle grande rupture. Après l’ABS, l’ESP et l’électrification, nous serions entrés dans l’ère des voitures « qui apprennent ». Les aides à la conduite ne se contenteraient plus d’exécuter des instructions : elles analyseraient, anticiperaient, décideraient – et bien mieux que le conducteur, évidemment !
Il est vrai que les systèmes modernes de freinage d’urgence, de maintien de voie ou de détection des usagers vulnérables reposent déjà sur des algorithmes d’apprentissage automatique. Caméras et radars ne se contentent plus de capter des données, ils les interprètent. Mais toujours à travers des modèles prédéterminés. Dans certaines situations, cela améliore la réactivité et réduit les collisions. Sauf qu’améliorer n’est pas abolir.
Pas une conscience
Non, l’IA automobile ne « comprend » pas la route. Elle calcule des probabilités à partir de millions de kilomètres de données. Elle excelle dans les scénarios qu’elle a appris à reconnaître, mais elle reste fragile face à l’imprévu. C’est d’ailleurs là que le discours actuel dérape. Parce que le mot « intelligence » suggère une capacité de jugement presque humaine. Or il n’y a ni intuition, ni bon sens, ni responsabilité dans ces systèmes, mais seulement des modèles mathématiques.
Publicité – continuez à lire ci-dessous
Le discours est excessif. À chaque fois qu’une technologie semble spectaculaire, on lui prête des pouvoirs qu’elle n’a pas. Ou pas encore. Internet devait supprimer les intermédiaires et élever le niveau d’information global. Il a surtout déplacé les équilibres. L’ABS et l’ESP devaient empêcher les accidents. Ils ont réduit certains risques, pas tous. Pourquoi l’IA échapperait-elle à cette règle ?
L’illusion de sécurité
Le danger n’est pas que l’IA échoue. Aucun système technique n’est parfait. Le danger est précisément de croire qu’elle ne peut pas échouer. On nous promet la conduite autonome depuis plus d’une décennie. À chaque avancée logicielle, elle serait « presque prête ». Aujourd’hui, l’intelligence artificielle relance la promesse : cette fois, ce serait la bonne. Pourtant, les systèmes les plus avancés continuent de commettre des erreurs, parfois graves. Ils assistent, ils corrigent, ils progressent. Mais ils ne comprennent pas. La question n’est donc pas de savoir si l’IA améliorera la sécurité. Elle le fera. La vraie question est plus simple : une machine peut-elle vraiment remplacer le jugement humain ou seulement l’épauler ? Pour l’heure, l’IA reste un copilote. Et c’est déjà beaucoup.
À la recherche d'une voiture ? Cherchez, trouvez et achetez le meilleur modèle sur Gocar.be