Google a étendu son contrat avec le Département de la Défense des États-Unis (DoD) pour inclure son système d'IA Gemini, selon une annonce récente. Le nouvel accord permet au Pentagone d'utiliser Gemini à 'toute fin légale', une phrase qui a suscité un débat sur l'engagement passé de l'entreprise envers des principes éthiques en IA.
Ce développement fait suite à la décision de Google en 2018 de ne pas renouveler le Projet Maven, un programme d'IA pour drones militaires, après des protestations d'employés. À l'époque, Google avait adopté des principes d'IA interdisant l'utilisation de sa technologie pour des armes ou de la surveillance. Cependant, l'entreprise a depuis révisé ces principes, supprimant les interdictions explicites sur les applications militaires.
Google a déclaré être 'fier' de soutenir le DoD, soulignant que le contrat respecte toutes les lois et réglementations applicables. Les critiques soutiennent que cela contredit l'ancienne devise de l'entreprise 'Ne soyez pas malveillant', qui a été retirée de son code de conduite en 2018.
Les termes financiers exacts de l'extension du contrat n'ont pas été divulgués. Google n'a pas fourni de détails sur les projets spécifiques pour lesquels Gemini sera utilisé, mais le langage large de 'toute fin légale' a suscité des inquiétudes parmi les chercheurs en éthique de l'IA quant à une utilisation potentielle dans des armes autonomes ou des systèmes de surveillance.