Experts et personnalités appellent à stopper la course au développement de la superintelligence artificielle
Plus de 800 experts et personnalités, parmi lesquels des figures de l'IA moderne, lancent un appel alarmant contre les dangers potentiels d'une IA surpassant les capacités humaines. Geoffrey Hinton, prix Nobel de physique en 2024, et Steve Wozniak, cofondateur d'Apple, sont parmi les signataires de cette initiative.
Un consensus scientifique et un soutien de la population nécessaires

L'initiative lancée par le Future of Life Institute, organisme non lucratif basé aux Etats-Unis, met en garde contre les risques de développement de la superintelligence artificielle sans un consensus scientifique sur sa construction contrôlée et sécurisée, ainsi que sans le soutien de la population.
Des signataires variés pour sensibiliser sur les dangers potentiels
La liste des signataires comprend des personnalités influentes de différents domaines, telles que des pères de l'IA moderne, des figures de la tech, des personnalités politiques, des responsables religieux et même des célébrités. ## Développement de l'intelligence artificielle générale
La plupart des acteurs de l’intelligence artificielle se concentrent sur le développement de l’intelligence artificielle générale (AGI) et de la superintelligence, qui va au-delà des capacités intellectuelles humaines.
Perspectives sur la superintelligence
Sam Altman, dirigeant d’OpenAI, estime que la superintelligence pourrait être atteinte dans les cinq prochaines années, selon ses déclarations lors d’un événement en septembre.
Mise en place d'un cadre réglementaire
Des voix se sont élevées, dont celle de Max Tegmark du Future of Life Institute, pour souligner l'importance d'un cadre réglementaire dans le développement de l'IA, afin de prévenir des conséquences potentiellement catastrophiques pour l'humanité. Au sein du secteur, des appels ont aussi été lancés en faveur de la mise en place d’accords internationaux sur des normes éthiques pour encadrer le développement de l’IA.