L’abandon de l’engagement éthique de Google dans le développement de l’intelligence artificielle

Le géant de la technologie Google a récemment supprimé son engagement à ne pas utiliser l’intelligence artificielle (IA) pour développer des armes et des technologies de surveillance. Cette décision intervient quelques semaines après le début du second mandat du président américain Donald Trump, qui a déjà montré une volonté de renforcer les liens entre les entreprises technologiques et l’armée.

Jusqu’à récemment, Google s’était engagé à ce que ses applications d’IA ne soient pas utilisées pour causer un préjudice global ou pour développer des armes. Cet engagement avait été pris il y a sept ans, sous la pression de ses employés qui avaient rappelé à l’entreprise sa devise « Don’t be evil » (Ne jouez pas au diable). Cependant, le vice-président senior de Google, James Manyika, et le PDG du laboratoire de recherche en IA DeepMind, Demis Hassabis, ont annoncé que l’entreprise ne pouvait plus promettre de s’abstenir de développer des armes utilisant l’IA.

Cette décision a suscité des critiques de la part des employés de Google et des défenseurs des droits humains. Margaret Mitchell, qui codirigeait l’équipe d’IA éthique de Google, a déclaré que la suppression de cet engagement « efface le travail que tant de personnes ont accompli chez Google » et que cela signifie que l’entreprise travaillera probablement désormais à déployer directement des technologies qui peuvent tuer des gens.

Les responsables de Google ont justifié cette décision en affirmant que les démocraties devraient mener le développement de l’IA, guidées par des valeurs fondamentales telles que la liberté, l’égalité et le respect des droits humains. Cependant, cette justification a été remise en question par de nombreux observateurs qui craignent que les entreprises technologiques ne soient pas en mesure de réguler elles-mêmes leur utilisation de l’IA.

Cette décision intervient dans un contexte où les entreprises technologiques sont de plus en plus impliquées dans les efforts de défense et de sécurité nationale. Les critiques craignent que cela ne conduise à une augmentation de la militarisation de l’IA et à une utilisation accrue des technologies de surveillance pour contrôler les populations.

En résumé, l’abandon de l’engagement éthique de Google dans le développement de l’intelligence artificielle est un événement inquiétant qui suscite des questions sur la responsabilité des entreprises technologiques et leur rôle dans la société. Il est essentiel que les gouvernements et les organisations de la société civile prennent des mesures pour réguler l’utilisation de l’IA et garantir qu’elle soit utilisée de manière éthique et responsable.