(Top)

Passez à l’action

Le nombre de personnes conscientes des risques liés à l’IA est encore restreint.

Vous en faites désormais partie.

Vos actions ont plus de poids que vous ne l’imaginez.

Ce que vous pouvez faire dès maintenant

Et si…

Vous êtes un bon orateur

  • Tentez de convaincre un membre du gouvernement de se préparer pour le sommet
    et de travailler sur un moratoire international.
    C’est la chose la plus importante que vous puissiez faire.
  • Tentez de convaincre des journalistes d’écrire sur la question de la sécurité de l’IA.
  • Contactez des influenceurs pour les inciter à aborder et faire des vidéos sur la sécurité de l’IA.
  • Demandez à la direction de l’organisme officiel auquel vous appartenez, si tel est le cas, de prendre position sur ce sujet au niveau institutionnel.

Vous êtes un politique ou travaillez pour le gouvernement

  • Préparez-vous pour le sommet sur la sécurité de l’IA
    .
    Formez des coalitions avec d’autres pays. Renseignez-vous sur le problème et ses solutions .
  • Invitez les dirigeants des laboratoires d’IA à des auditions parlementaires pour qu’ils exposent la façon dont ils appréhendent et ont l’intention d’anticiper les potentiels risques catastrophiques liés à l’IA, et selon quel calendrier.
  • Mettez en place une commission pour étudier les risques de l’IA .

Vous connaissez le droit (ou le droit international)

Vous savez produire du contenu web

Vous travaillez dans le secteur de l’IA

  • Ne travaillez pas sur une superintelligence : Si vous avez une nouvelle idée révolutionnaire pour multiplier par dix la vitesse des systèmes d’IA, s’il vous plaît, ne la développez pas, ne la diffusez pas et n’en parlez pas. Nous devons ralentir le développement de l’IA, pas l’accélérer.
  • Parlez à votre direction et à vos collègues des risques de l’IA : Poussez-les à prendre position sur ce sujet à un niveau institutionnel.
  • Organisez un séminaire sur la sécurité de l’IA sur votre lieu de travail. Si vous cherchez de l’inspiration, regardez ces vidéos
    .
  • Signez la Déclaration sur les risques de l’IA
    .

Vous travaillez dans le secteur de la sécurité de l’IA

Si vous débutez en matière d’alignement de l’IA, à moins d’être extrêmement qualifié ou d’avoir un éclair de génie dans le domaine, réfléchissez sérieusement à la possibilité de changer de camp et de militer plutôt pour une pause. Sans un moratoire, vous n’aurez tout simplement pas le temps de faire évoluer votre carrière dans le secteur de l’alignement au point de pouvoir percer dans le domaine et vous rendre véritablement utile.

Si vous êtes déjà une personnalité reconnue dans le domaine de l’alignement, pourquoi ne pas envisager de faire davantage entendre votre voix dans l’espace public

et accepter d’associer votre nom aux appels au moratoire et la réglementation du secteur ?

Conseils pour être efficace

  • Montrez-vous courageux et soyez direct lors de vos prises de parole publique sur les risques : Évitez d’adopter un langage édulcoré. Votre premier réflexe ne doit pas être d’émettre des réserves. Vous pourrez les formuler si on vous interroge mais ne donnez pas l’impression de ne pas être vraiment inquiet si vous l’êtes.
  • Soyez moins exigeant avec vous-même : Appliquez le principe de Pareto
    . Évitez la classique erreur des passionnés d’informatique qui consiste à passer des mois à peaufiner un document Google avec d’interminables ré-écritures. Lancez votre projet publiquement et vous vous adapterez au fur et à mesure. Il n’y a pas de temps à perdre.

Gardez ceci à l’esprit : Toute autre action entreprise serait l’équivalent de vouloir aligner les transats sur le pont du Titanic. Nous devons courir vers la passerelle, saisir la barre et nous éloigner de l’iceberg. Nous n’avons peut-être pas beaucoup de temps, mais nous pouvons essayer. Nous pouvons y arriver !