Nous ne sommes pas tous des historiens.
C'est peut-être en partie pour cette raison que nous semblons oublier les péchés de nos pères, et de leurs pères, et remonter à l'aube de la civilisation. Ou peut-être est-ce simplement le fait que pour la race humaine, on peut et on doit souvent considérer que les deux sont interchangeables.
Avant que vous ne fermiez les canaux de communication sur moi parce que je suis un luddite des temps modernes, permettez-moi de préciser que je ne suis ni anti-progrès ni anti-technologie. C'est l'innovation qui fait la grandeur de l'humanité - et qui nous a permis de pénétrer dans ce grand univers en premier lieu. Il est évident que le progrès exige généralement des risques.
Le problème est que nous abordons souvent la technologie avec un ensemble d'œillères sur ce qui a précédé, soit parce que le résultat est plus important que les mises en garde, soit parce que nous sommes assez fiers pour penser que nous ferons mieux cette fois-ci. À quelques exceptions près, chaque génération est plus avancée que la précédente, et nous pensons donc que nous ne pouvons pas nous tromper de la même manière que nos parents. Nous voici donc de nouveau réunis. La nouvelle initiative d'ArcCorp en matière d'IA, qui a fait l'objet d'un débat animé depuis son annonce il y a deux semaines, semble à nouveau courir vers les mêmes écueils que nos ancêtres.
Nous ne pouvons pas faire les mêmes erreurs.
Parfois, ce n'est même pas notre faute si nous oublions. Il a fallu près de dix ans d'enquête médiatique pour arracher au gouvernement la vérité sur le fait que, peut-être (mine de sarcasme), l'IA du projet de terraformation avait été au cœur de la catastrophe de Mars en 2125. À l'époque, personne ne voulait en entendre parler.
Bien sûr, même cela n'était pas la première catastrophe de l'IA. L'incident de la "Lemming Car" en 2044 à Tokyo est à l'origine de cet honneur. Mais moins de 100 ans plus tard, le gouvernement a décidé qu'il avait trouvé des failles dans les systèmes d'IA et en a envoyé une sur Mars. Bien sûr, ils ne nous en ont pas parlé, juste au cas où ils auraient eu tort.
Ils se sont trompés.
Et puis, un peu plus de 100 ans après la catastrophe de Mars (y a-t-il une tendance ici ?), est arrivée l'Artemis. Janus. Malgré le spectacle grandiose du lancement, quelqu'un quelque part devait être nerveux à l'idée que nous marchions encore sur la route dangereuse de l'intelligence artificielle. Mais cette fois, ils étaient sûrs d'avoir bien fait les choses.
Certes, nous ne sommes pas certains que la disparition de 5000 personnes soit entièrement imputable à l'IA, mais elle a certainement dû jouer un rôle.
Avec un échec aussi public, le génie est retourné dans la bouteille pendant un certain temps. Mais nous n'avions pas fini. L'UEEN est simplement retourné à la dissimulation lorsqu'il a lancé son dernier projet d'IA raté. Des documents récemment déclassifiés montrent à quel point nous avons frôlé la guerre lors de ce qui est devenu l'incident Horus. En collaboration avec Aegis, la marine a déployé un prototype d'aile de bombardier Overlord piloté par l'IA le long du front de Xi'An. Leurs cœurs étaient à la bonne place : il s'agissait d'une tentative de ramener à la maison des pilotes qui avaient été stationnés le long de la ligne Perry pendant toute leur carrière. Mais lorsque les bébés d'Aegis, qui valaient des milliards de crédits, ont décidé que leurs comms étaient compromises et les ont éteintes - juste à temps pour manquer leur ordre de rappel - nous avons dû poursuivre et détruire notre propre erreur, qui a sonné le glas d'Aegis dans le secteur de la construction navale. Encore une fois, nous ne sommes pas sûrs qu'ils nous auraient plongés dans une guerre totale avec les Xi'An en se promenant sans surveillance dans la zone neutre, mais qu'auraient-ils pu faire ?
Bien sûr, l'Imperator a essayé de garder toute la séquence embarrassante hors des flux. Mais au moins, il semblait que nous avions enfin appris à craindre avec raison de ne plus jamais utiliser l'IA dans les navires.
Maintenant, c'est au tour des entreprises de croire qu'elles ne répéteront pas les erreurs des générations précédentes.
ArcCorp nous dit que son IA sera capable d'apprendre, ce qui lui permettra de réussir là où d'autres ont échoué. (Où avons-nous déjà entendu cela ?) Mais voilà le problème : les humains font cela aussi. Ils doivent avoir des années d'expérience, une formation spécifique et les licences appropriées pour pouvoir s'aventurer dans l'espace. Mais ArcCorp veut une fois de plus envoyer l'équivalent artificiel d'enfants dans des vaisseaux spatiaux massifs pour naviguer dans l'immensité de notre empire interstellaire.
C'est le progrès. Il protège des vies humaines. Il faut que ça arrive.
Pourquoi ne pouvons-nous pas apprendre ?
Par. Parker Terrell
Rédacteur de l'équipe
New United du 30 Avril 2943