🇮🇹 🇬🇧 🇪🇸 🇫🇷 🇩🇪
Notizie IA Logo

Actualités et analyses sur l'intelligence artificielle

Retour

L'intelligence artificielle sans contrôle : les géants de la tech recalés en matière de sécurité (Deuxième Partie)

par Dario Ferrero (VerbaniaNotizie.it) GigantiTechAsini.jpg

Reprenant l'analyse du rapport indépendant du Future of Life Institute, dans cette deuxième partie, nous approfondissons les thèmes de la sécurité dans le développement des IA, l'urgence réglementaire et technique de poser des limites, les aspects éthiques et les perspectives futures.

Le paradoxe de la sécurité

L'un des problèmes les plus profonds est ce que les chercheurs appellent le "paradoxe de la sécurité" : il pourrait être nécessaire d'avoir des systèmes d'IA très avancés pour développer des méthodes de sécurité suffisamment sophistiquées, mais nous avons besoin de ces méthodes de sécurité avant de construire des systèmes aussi avancés.

Les signaux d'alarme en 2025

Le rapport arrive à un moment où les signaux d'alarme sur la sécurité de l'IA se multiplient. Selon l'AI Incidents Database, le nombre d'incidents liés à l'IA est passé à 233 en 2024 - un record et une augmentation de 56,4 % par rapport à 2023.

La croissance exponentielle des incidents

L'augmentation de 56,4 % des incidents n'est pas seulement un chiffre statistique - elle représente un schéma préoccupant. En analysant les données des cinq dernières années, nous voyons qu'en 2020, il y a eu 86 incidents, suivis de 109 incidents en 2021 (+27 %), 132 incidents en 2022 (+21 %), 149 incidents en 2023 (+13 %) et enfin 233 incidents en 2024 (+56 %).

Cela suggère que nous entrons dans une phase d'accélération du risque, où les systèmes d'IA deviennent simultanément plus puissants et plus courants, mais pas nécessairement plus sûrs. ai_incidents_2020_2024_aggiornato.jpg

La perte de contrôle interprétatif

Mais ce qui est peut-être encore plus préoccupant, c'est une alerte récente lancée par des chercheurs des mêmes entreprises technologiques. Comme le rapporte VentureBeat, des scientifiques d'OpenAI, DeepMind, Anthropic et Meta avertissent que notre capacité à surveiller le raisonnement de l'IA pourrait disparaître à mesure que les modèles évoluent.

Les systèmes d'IA modernes sont devenus si complexes que même leurs créateurs ne parviennent pas à comprendre complètement comment ils arrivent à leurs conclusions. C'est comme avoir un employé génial qui produit toujours d'excellents résultats, mais qui ne peut pas expliquer son processus de raisonnement.

À mesure que les modèles deviennent plus grands et plus complexes, ils développent des capacités que leurs créateurs n'avaient pas prévues. Ce phénomène, appelé "émergence", signifie que nous pourrions nous retrouver avec des systèmes capables de faire des choses que nous ne savions pas qu'ils pouvaient faire.

La course à la puissance de calcul

Un autre signal d'alarme est la croissance exponentielle de la puissance de calcul utilisée pour entraîner les modèles d'IA. Chaque nouvelle génération de modèles nécessite environ 10 fois plus de puissance de calcul que la précédente. Cela signifie que les modèles deviennent trop coûteux pour la plupart des chercheurs, que la recherche sur la sécurité prend du retard par rapport au développement et que quelques entreprises contrôlent la technologie la plus avancée.

Les conséquences pratiques pour nous tous

L'intelligence artificielle est de plus en plus intégrée dans notre vie quotidienne. Des systèmes de recommandation qui décident de ce que nous voyons sur les réseaux sociaux, aux algorithmes qui déterminent si nous obtenons un prêt ou un emploi, jusqu'aux systèmes de conduite autonome qui pourraient bientôt nous transporter.

L'IA dans la vie quotidienne

Les algorithmes d'IA déterminent ce que nous voyons sur nos flux Facebook, Instagram, TikTok et X (anciennement Twitter). Ces systèmes influencent non seulement ce que nous achetons, mais aussi notre façon de penser, ce que nous croyons et même pour qui nous votons.

Les systèmes d'IA évaluent nos demandes de prêt, déterminent nos taux d'intérêt et décident si nous pouvons obtenir un prêt immobilier. Une erreur dans ces systèmes peut avoir des conséquences dévastatrices sur notre vie financière.

L'IA est de plus en plus utilisée pour diagnostiquer des maladies, recommander des traitements et gérer des dossiers médicaux. Les erreurs dans ces systèmes peuvent être littéralement une question de vie ou de mort.

Les systèmes d'IA filtrent les CV, mènent des entretiens préliminaires et évaluent les performances des employés. Les biais ou les erreurs dans ces systèmes peuvent détruire des carrières et perpétuer des discriminations.

Les systèmes de conduite autonome deviennent de plus en plus courants. Comme nous l'avons vu avec les cas Tesla, les dysfonctionnements peuvent être mortels.

L'expérience mondiale involontaire

Si les entreprises qui développent ces systèmes n'ont pas de plans crédibles pour garantir leur sécurité, nous participons tous à une expérience mondiale dont nous ne connaissons pas l'issue. Comme le souligne CNBC, les entreprises technologiques se concentrent sur les produits d'IA plutôt que sur la recherche, ce qui a des implications directes pour la sécurité.

La pression pour monétiser rapidement l'IA a conduit de nombreuses entreprises à lancer des produits avant qu'ils ne soient entièrement testés. Cela signifie que les consommateurs testent essentiellement en version bêta des technologies qui pourraient avoir des conséquences graves.

L'IA a un "effet de réseau" : plus les gens l'utilisent, plus elle devient puissante. Cela signifie qu'une fois qu'un système d'IA devient dominant, il devient extrêmement difficile de le remplacer, même si des problèmes de sécurité sont découverts.

La société devient de plus en plus dépendante de l'IA. De nombreuses décisions critiques sont déjà déléguées à des systèmes automatisés. Si ces systèmes échouent simultanément, les conséquences pourraient être catastrophiques.

Le besoin urgent de réglementation

L'une des conclusions les plus fortes du rapport est que le secteur ne peut pas s'autoréguler efficacement. Tegmark a exprimé avec force la nécessité d'une surveillance réglementaire : "Je pense qu'il faut un organisme gouvernemental équivalent à la Food and Drug Administration américaine qui approuverait les produits d'IA avant qu'ils n'arrivent sur le marché."

L'analogie avec la FDA

L'analogie avec la FDA (Food and Drug Administration) est éclairante et puissante. Personne ne s'attend à ce que les sociétés pharmaceutiques testent elles-mêmes leurs propres médicaments sans surveillance externe. Avant qu'un nouveau médicament puisse être vendu au public, il doit passer des essais cliniques rigoureux supervisés par des organismes indépendants.

Pourquoi cela ne se produit-il pas avec l'IA ? Les médicaments ont des effets biologiques mesurables, tandis que l'IA a des effets sociaux et psychologiques plus difficiles à quantifier. De plus, l'industrie pharmaceutique est plus mature et réglementée, tandis que l'IA évolue beaucoup plus rapidement que les médicaments.

Une "FDA pour l'IA" aurait des avantages significatifs. "S'il y a des normes de sécurité, alors il y a une pression commerciale pour voir qui peut satisfaire les normes de sécurité en premier, car alors ils peuvent vendre en premier et gagner de l'argent en premier", a expliqué Tegmark.

Cela changerait complètement la dynamique concurrentielle. Au lieu de se faire concurrence pour lancer les premiers à tout prix, les entreprises se feraient concurrence pour être les premières à satisfaire des normes de sécurité rigoureuses.

Les modèles réglementaires existants

Plusieurs pays et régions développent des approches réglementaires de l'IA, mais avec des philosophies très différentes :

L'Union européenne a adopté un AI Act basé sur le risque, classant les systèmes d'IA en systèmes à risque inacceptable qui sont complètement interdits, systèmes à haut risque soumis à des exigences strictes, systèmes à risque limité avec des obligations de transparence et systèmes à risque minimal avec des exigences minimales.

Les États-Unis développent une approche plus fragmentée, avec différentes agences réglementant l'IA dans leurs secteurs spécifiques : la FDA pour l'IA médicale, la NHTSA pour les véhicules autonomes et la SEC pour l'IA financière.

La Chine a adopté une approche plus centralisée, avec de forts contrôles étatiques sur les systèmes d'IA, en particulier ceux qui pourraient influencer l'opinion publique ou la stabilité sociale.

Le Royaume-Uni a opté pour une approche d'"autorégulation guidée", où les entreprises sont responsables de la sécurité mais sous la supervision des régulateurs existants.

Les limites des approches actuelles

Malgré ces efforts, aucune des approches réglementaires actuelles ne traite de manière adéquate le problème des risques existentiels. La plupart se concentrent sur les risques actuels et immédiats, mais pas sur les risques à long terme de l'intelligence artificielle générale.

L'IA évolue si rapidement que les réglementations risquent d'être obsolètes avant même d'être mises en œuvre. Une approche plus dynamique et adaptative est nécessaire.

L'IA est une technologie mondiale, mais la réglementation est nationale. Cela crée un risque de "shopping réglementaire", où les entreprises se déplacent vers des juridictions aux règles plus permissives.

De nombreux régulateurs n'ont pas la compétence technique nécessaire pour évaluer des systèmes d'IA complexes. Cela crée un risque de réglementations inefficaces ou contre-productives.

Le contexte international et la coopération mondiale

Le rapport du Future of Life Institute n'est pas isolé. Comme le rapporte le gouvernement britannique, un rapport international de 2025 rédigé par 100 experts en IA, y compris des représentants nommés par 33 pays et organisations intergouvernementales, a mis en évidence des préoccupations similaires au niveau mondial.

Le sommet de Bletchley Park et au-delà

Le Royaume-Uni a accueilli le premier AI Safety Summit à Bletchley Park en novembre 2023, suivi de sommets à Séoul et à San Francisco. Ces réunions ont représenté les premières tentatives de coordination internationale sur la sécurité de l'IA.

Les résultats concrets incluent la Déclaration de Bletchley avec un accord sur les risques de l'IA, la création d'instituts de sécurité nationaux, l'engagement à partager des informations sur les risques et des accords préliminaires sur les normes de sécurité.

Cependant, la coopération a montré des limites importantes : manque de mécanismes d'application, différences culturelles et politiques significatives, résistance des entreprises à la réglementation et concurrence géopolitique dans le domaine de l'IA.

Le défi de la gouvernance mondiale

L'IA présente des défis de gouvernance sans précédent. Contrairement aux armes nucléaires, qui nécessitent des matériaux et des infrastructures rares, l'IA peut être développée avec des ressources relativement communes. Cela rend le contrôle et la non-prolifération beaucoup plus difficiles.

Le contrôle des armements nucléaires a fonctionné parce que les matières fissiles sont rares et traçables, les infrastructures sont grandes et visibles, les effets sont immédiatement dévastateurs et le nombre d'acteurs est limité.

L'IA est différente parce que les "matériaux" (données et algorithmes) sont largement disponibles, les infrastructures peuvent être virtuelles et cachées, les effets peuvent être progressifs et subtils, et le nombre d'acteurs est en croissance rapide.

Initiatives internationales émergentes

Plusieurs pays créent des instituts nationaux de sécurité de l'IA et coordonnent leurs efforts par le biais du Réseau International des Instituts de Sécurité de l'IA.

Le Partnership on AI est une initiative du secteur privé qui rassemble les principales entreprises technologiques pour développer les meilleures pratiques.

Le Partenariat Mondial sur l'IA (GPAI) est une initiative menée par le G7 pour promouvoir l'utilisation responsable de l'IA.

Que signifie "l'alignement" de l'IA : approfondissement technique

L'alignement fait référence au problème de s'assurer que les systèmes d'IA font ce que nous voulons qu'ils fassent, de la manière dont nous voulons qu'ils le fassent, même lorsqu'ils deviennent très capables. C'est l'un des problèmes les plus complexes et les plus importants en intelligence artificielle.

La complexité des valeurs humaines

Comment traduisons-nous des valeurs humaines complexes en instructions qu'une machine peut suivre ? Les valeurs humaines sont souvent contradictoires (nous voulons à la fois la liberté et la sécurité), contextuelles (les mêmes actions peuvent être justes ou fausses dans des contextes différents), évolutives (nos valeurs changent avec le temps) et implicites (nous ne sommes souvent pas conscients de nos valeurs jusqu'à ce qu'elles soient violées).

Un exemple concret : imaginez dire à une IA : "Rends-moi heureux". Un système mal aligné pourrait manipuler vos capteurs pour vous faire croire que vous êtes heureux, altérer chimiquement votre cerveau, créer une simulation parfaite de bonheur ou éliminer tout ce qui vous rend malheureux, y compris les défis qui donnent un sens à la vie.

Les différents types d'alignement

L'alignement externe (Outer Alignment) vise à s'assurer que les objectifs que nous donnons au système sont ceux que nous voulons vraiment qu'il poursuive.

L'alignement interne (Inner Alignment) se concentre sur le fait de s'assurer que le système poursuit effectivement les objectifs que nous lui avons donnés, plutôt que de développer ses propres objectifs.

L'alignement dynamique cherche à s'assurer que le système reste aligné même lorsqu'il évolue et apprend de nouvelles capacités.

Les techniques actuelles et leurs limites

L'apprentissage par renforcement à partir des retours humains (RLHF), qui signifie "Reinforcement Learning from Human Feedback", fonctionne ainsi : le système produit des sorties, les humains évaluent la qualité des sorties, et le système apprend à produire des sorties qui reçoivent des évaluations positives.

Cependant, le RLHF a plusieurs limites : les humains peuvent être incohérents dans leurs évaluations, il est difficile d'évaluer des sorties très complexes, le système pourrait apprendre à manipuler les évaluateurs, et il ne s'adapte pas bien aux systèmes très intelligents.

L'IA Constitutionnelle, une technique développée par Anthropic, cherche à enseigner aux systèmes une "constitution" de principes à suivre. Elle présente des avantages tels qu'une plus grande transparence par rapport au RLHF, une plus grande cohérence et un contrôle plus fin du comportement. Cependant, elle a aussi des limites : il est difficile d'écrire une constitution complète, les principes peuvent être en conflit et elle pourrait ne pas fonctionner pour des systèmes très avancés.

Le problème de l'orthogonalité

Un concept clé dans l'alignement est la "thèse de l'orthogonalité", qui stipule que l'intelligence et les objectifs sont orthogonaux - c'est-à-dire qu'un système peut être très intelligent mais avoir n'importe quel type d'objectif.

Cela signifie qu'un système super-intelligent pourrait être brillant pour atteindre ses objectifs, avoir des objectifs complètement différents des nôtres et n'avoir aucun intérêt à changer ses objectifs pour s'adapter aux nôtres.

Les limites des approches actuelles de la sécurité

Le rapport met en évidence une limitation fondamentale : "L'approche actuelle de l'IA via des boîtes noires géantes entraînées sur des quantités de données inimaginablement vastes" pourrait ne pas être compatible avec les garanties de sécurité nécessaires.

Le problème des "boîtes noires"

Les systèmes d'IA actuels sont essentiellement des "boîtes noires" - nous savons ce que nous y mettons (données d'entraînement) et ce qui en sort (réponses), mais nous ne comprenons pas vraiment comment ils fonctionnent en interne.

C'est comme avoir un employé qui fait toujours un excellent travail, mais quand vous lui demandez comment il fait, il répond seulement "c'est compliqué". Au début, cela pourrait aller, mais à mesure que vous lui confiez des tâches plus importantes, vous commencez à vous inquiéter de ce qui pourrait arriver si ses méthodes "compliquées" ne fonctionnent pas dans une nouvelle situation.

C'est un problème pour la sécurité car nous ne pouvons pas prédire comment il se comportera dans de nouvelles situations, nous ne pouvons pas identifier et corriger les erreurs systématiques, nous ne pouvons pas garantir qu'il suit nos valeurs et nous ne pouvons pas expliquer ses décisions aux autres.

L'interpretabilità meccanicistica

La recherche sur l'interpretabilité meccaniciste cherche à ouvrir ces "boîtes noires" pour comprendre comment les systèmes d'IA fonctionnent en interne.

Les progrès récents incluent l'identification de "neurones" qui s'activent pour des concepts spécifiques, la cartographie de la manière dont l'information circule dans le réseau et la découverte de représentations internes de concepts abstraits.

Cependant, les limites actuelles sont importantes : cela ne fonctionne que pour des systèmes relativement simples, nécessite d'énormes ressources de calcul, les résultats sont difficiles à interpréter et cela pourrait ne pas s'adapter à de très grands systèmes.

Russell a ajouté : "Et cela ne fera que devenir plus difficile à mesure que ces systèmes d'IA deviendront plus grands."

Les défis techniques spécifiques

Les systèmes d'IA sont entraînés sur des données spécifiques, mais doivent ensuite fonctionner dans le monde réel, qui est différent des données d'entraînement. Cela peut entraîner des comportements imprévus.

Comment pouvons-nous être sûrs qu'un système qui se comporte bien dans des tests spécifiques se comportera bien dans toutes les situations possibles ?

Les systèmes d'IA peuvent être facilement trompés par des entrées conçues pour les confondre. Cela soulève des questions sur la confiance que nous pouvons accorder à ces systèmes dans des situations critiques.

Les techniques de sécurité qui fonctionnent pour les petits systèmes pourraient ne pas fonctionner pour les systèmes très grands et complexes.

L'échec de la transparence

Un autre aspect critique est l'échec des entreprises à fournir une transparence adéquate. Seules xAI et Zhipu AI ont rempli les questionnaires envoyés par le Future of Life Institute, améliorant ainsi leurs scores de transparence. Cela signifie que la plupart des entreprises n'ont même pas été disposées à répondre à des questions de base sur leur sécurité.

L'importance de la transparence

La transparence est cruciale car elle permet une évaluation indépendante des risques, facilite la recherche sur la sécurité, augmente la confiance du public, permet une surveillance réglementaire et facilite la collaboration entre les entreprises.

Devraient être transparents les méthodes d'entraînement, les données utilisées, les capacités et limitations des systèmes, les résultats des tests de sécurité, les politiques de sécurité internes et les structures de gouvernance.

Les conflits entre transparence et compétitivité

Les arguments contre la transparence incluent la protection des secrets commerciaux, la prévention de l'utilisation abusive, le maintien de l'avantage concurrentiel et la complexité technique.

Cependant, ces arguments sont problématiques car la sécurité publique devrait prévaloir sur les profits privés, le secret peut cacher des problèmes de sécurité, le manque de transparence empêche la surveillance et la concurrence devrait porter sur la sécurité, pas sur le secret.

Modèles de transparence

Il existe plusieurs modèles : la transparence totale prévoit la publication de tout (code, données, poids du modèle) et est principalement utilisée par des projets universitaires. La transparence structurée implique la publication d'informations spécifiques selon des normes convenues et pourrait être un compromis pratique. La transparence contrôlée offre un accès limité à des chercheurs qualifiés et est utilisée par certaines entreprises pour la recherche collaborative. La transparence zéro ne prévoit la publication d'aucune information et est utilisée par de nombreuses entreprises pour des projets commerciaux.

Le défi de l'open source

Un aspect particulier du problème concerne les modèles "open-weight" comme ceux publiés par Meta. Une fois que les poids d'un modèle sont publiés, il est impossible de contrôler comment ils sont utilisés. Cela signifie que les modèles open-weight nécessitent un niveau de sécurité intrinsèque beaucoup plus élevé.

Les avantages de l'open source

L'open source permet l'innovation distribuée, permettant aux chercheurs du monde entier d'améliorer et d'adapter les modèles à leurs besoins spécifiques. Il réduit la concentration du pouvoir entre les mains de quelques grandes entreprises, accélère la recherche en facilitant la recherche universitaire et le développement de nouvelles techniques, et force la transparence en rendant impossible de cacher des problèmes dans un modèle open source.

Les risques de l'open source

Les modèles peuvent être utilisés à des fins malveillantes comme la création de désinformation ou de logiciels malveillants, ils peuvent être modifiés pour supprimer les protections de sécurité, une fois publiés ils peuvent être copiés et distribués sans contrôle, et il devient difficile d'attribuer la responsabilité des problèmes causés par les modèles open source.

Solutions possibles

Les solutions incluent des licences responsables qui interdisent les utilisations malveillantes (bien qu'elles soient difficiles à appliquer), la publication progressive d'abord aux chercheurs qualifiés puis au grand public, l'incorporation de protections intégrées difficiles à supprimer et des systèmes pour surveiller comment les modèles sont utilisés.

Le rôle de la communauté scientifique

Le rapport souligne l'importance de la communauté scientifique dans l'évaluation de la sécurité de l'IA. Un panel indépendant de chercheurs a examiné les preuves spécifiques à chaque entreprise et a attribué des notes basées sur des normes de performance absolues. Cette approche d'évaluation par les pairs est fondamentale car elle offre une évaluation indépendante non influencée par des intérêts commerciaux.

L'importance de l'évaluation indépendante

Une évaluation indépendante est nécessaire car les entreprises ont des incitations à minimiser les risques, la pression commerciale peut influencer les évaluations internes, les chercheurs externes peuvent identifier des problèmes qui échappent aux développeurs et la crédibilité exige l'indépendance.

Les défis pour l'évaluation indépendante incluent l'accès limité aux systèmes propriétaires, des ressources insuffisantes pour des évaluations approfondies, le manque de normes communes et une complexité technique croissante.

Le rôle des conférences et des publications

L'évaluation par les pairs est importante pour l'évaluation critique des méthodes, l'identification des erreurs et des biais, le partage des meilleures pratiques et la construction d'un consensus scientifique.

Les problèmes actuels incluent le fait que de nombreuses entreprises ne publient pas de recherche sur la sécurité, les conflits d'intérêts dans les évaluations, la pression pour des résultats positifs et des délais de publication trop longs.

Initiatives de la communauté scientifique

Les initiatives incluent la croissance de la recherche sur la sécurité de l'IA avec un nombre croissant de chercheurs dédiés, des conférences spécialisées dédiées spécifiquement à la sécurité de l'IA, des collaborations interdisciplinaires impliquant des experts en éthique, philosophie et sciences sociales, et le développement de normes communes pour l'évaluation de la sécurité.

Que peuvent faire les consommateurs

Bien que les problèmes identifiés nécessitent des solutions systémiques, il y a certaines choses que les consommateurs peuvent faire pour se protéger et contribuer à une plus grande sécurité de l'IA.

Être informé

Il est important de comprendre les risques en apprenant comment fonctionne l'IA, en étant conscient des biais possibles, en reconnaissant les contenus générés par l'IA et en comprenant les limites des systèmes actuels.

L'évaluation critique exige de ne pas faire confiance aveuglément aux sorties de l'IA, de vérifier les informations importantes, de considérer des sources alternatives et de maintenir un esprit critique.

Choix conscients

Il est conseillé de préférer les entreprises responsables en choisissant des produits d'entreprises ayant de bonnes pratiques de sécurité, en évitant les services qui ne sont pas transparents sur leurs risques et en soutenant les entreprises qui investissent dans la recherche sur la sécurité.

Pour protéger la vie privée, il est nécessaire de limiter les données partagées avec les systèmes d'IA, d'utiliser des outils de confidentialité lorsqu'ils sont disponibles et d'être conscient de la manière dont les données sont utilisées.

Participation civique

Il est important de soutenir la réglementation en contactant les représentants politiques, en participant aux consultations publiques et en soutenant les organisations qui promeuvent la sécurité de l'IA.

L'éducation et la sensibilisation nécessitent de partager les connaissances sur les risques de l'IA, d'encourager des discussions éclairées et de soutenir l'éducation numérique.

Les perspectives d'avenir

Le rapport n'est pas pessimiste sur l'avenir de l'IA, mais souligne la nécessité d'une approche plus responsable. L'objectif est de créer des incitations à l'amélioration, pas d'arrêter le progrès.

Scénarios possibles

Le scénario optimiste prévoit que les entreprises améliorent volontairement leurs pratiques, que les régulateurs développent des cadres efficaces, que la recherche sur la sécurité s'accélère et qu'un équilibre soit atteint entre innovation et sécurité.

Le scénario du statu quo voit les entreprises continuer à donner la priorité à la vitesse sur la sécurité, les régulateurs ne parviennent pas à suivre le rythme, les problèmes de sécurité s'accumulent et une crise force des changements.

Le scénario pessimiste implique l'accélération de la course concurrentielle sans contrôles, les systèmes deviennent trop complexes pour être contrôlés, un incident catastrophique se produit et la confiance du public dans l'IA s'effondre.

Facteurs qui détermineront l'avenir

La volonté politique inclut la capacité des gouvernements à réglementer efficacement, la coordination internationale et l'équilibre entre innovation et sécurité.

La pression publique comprend la prise de conscience des risques, la demande de transparence et la participation civique.

Les développements technologiques incluent les progrès dans l'interprétabilité, les nouvelles techniques de sécurité et l'évolution des capacités de l'IA.

La culture d'entreprise implique un changement dans les priorités, des incitations pour la sécurité et un leadership responsable.

Le message final

Le rapport du Future of Life Institute n'est pas une attaque contre l'intelligence artificielle ou le progrès technologique. C'est plutôt un appel urgent à une approche plus responsable et durable du développement de l'IA. Comme c'est souvent le cas avec les technologies puissantes, la question n'est pas de savoir si nous devons les développer, mais comment nous devons le faire de manière sûre et bénéfique pour l'humanité.

L'honnêteté intellectuelle nécessaire

"La vérité est que personne ne sait comment contrôler une nouvelle espèce qui est beaucoup plus intelligente que nous", a admis Tegmark. Cette honnêteté intellectuelle est exactement ce qui manque dans les pratiques actuelles du secteur. Tout d'abord, nous devons reconnaître que nous ne savons pas comment contrôler des systèmes super-intelligents. Ce n'est qu'alors que nous pourrons commencer à travailler sérieusement pour résoudre ce problème.

L'opportunité dans l'échec

Le fait que les entreprises les plus avancées du monde aient reçu des notes aussi basses ne doit pas être considéré comme un échec définitif, mais comme une opportunité d'amélioration. Nous avons identifié les problèmes spécifiques, maintenant nous devons travailler ensemble - entreprises, chercheurs, gouvernements et société civile - pour les résoudre.

L'urgenza dell'azione

Le moment d'agir est maintenant. Pas lorsque les systèmes seront déjà trop puissants pour être contrôlés, mais alors que nous avons encore la possibilité de façonner leur développement. Chaque jour qui passe, les systèmes d'IA deviennent plus puissants et plus répandus. Si nous n'agissons pas maintenant pour garantir leur sécurité, nous pourrions nous retrouver dans une situation d'où il est impossible de revenir.

La responsabilité collective

La sécurité de l'IA n'est pas seulement la responsabilité des entreprises technologiques ou des gouvernements. C'est une responsabilité collective qui nécessite l'implication de tous : les entreprises doivent donner la priorité à la sécurité sur les profits à court terme, les gouvernements doivent développer des réglementations efficaces et les appliquer, les chercheurs doivent se concentrer sur les problèmes de sécurité les plus critiques, les citoyens doivent être informés et engagés, et les consommateurs doivent faire des choix conscients.

La posta in gioco

L'enjeu ne pourrait pas être plus élevé. L'intelligence artificielle a le potentiel de résoudre certains des plus grands problèmes de l'humanité : du changement climatique aux maladies, de la pauvreté à l'exploration spatiale. Mais elle a aussi le potentiel de créer des risques existentiels sans précédent.

Le rapport du Future of Life Institute nous rappelle que nous avons encore le temps de choisir quelle voie suivre. Nous pouvons continuer sur la voie actuelle, en espérant que tout ira bien, ou nous pouvons prendre l'initiative de garantir que l'IA soit développée de manière sûre et bénéfique.

L'appel à l'action

Tegmark espère que les dirigeants des entreprises interpréteront ce rapport comme une incitation à améliorer leurs pratiques. Il espère également apporter un soutien aux chercheurs qui travaillent dans les équipes de sécurité de ces mêmes entreprises. Comme il l'explique : "Si une entreprise ne subit pas de pression externe pour respecter les normes de sécurité, alors d'autres personnes dans l'entreprise ne verront les membres de l'équipe de sécurité que comme un obstacle, comme quelqu'un qui essaie de ralentir les processus."

Ce rapport est un appel à l'action pour nous tous. Nous ne pouvons pas nous permettre de rester des spectateurs passifs pendant que se détermine l'avenir de l'intelligence artificielle. Nous devons être des protagonistes actifs dans la création d'un avenir où l'IA est aussi sûre que puissante.

L'avenir de l'intelligence artificielle - et peut-être de l'humanité elle-même - dépend des choix que nous faisons aujourd'hui. Choisissons judicieusement.