Auto-Transcription pour la soumission S&P et NFSC
EP 54:16 : "Lumière de Guidage"
Bonjour et bienvenue dans un nouvel épisode dynamique de ShowDown ! Je suis votre hôte, Eria Quint. Le 12 avril de cette année, le consortium minier et maritime ArcCorp a annoncé qu'il allait tester son premier vaisseau cargo piloté par l'IA sur le tristement célèbre trajet Terre-Pinecone. La réaction du public à cette nouvelle a été pour le moins mitigée. Certains l'applaudissent comme une prochaine étape naturelle dans la mécanique de vol, tandis que d'autres décrient l'entreprise pour avoir privé des milliers de personnes de leur emploi au milieu d'une période économique difficile.
Nous avons deux invités très spéciaux qui nous rejoignent pour débattre de ce sujet. Le premier est l'hôte de la très populaire émission sur le transport maritime, Clean Shot, M. Craig Burton.
CRAIG BURTON : Bonjour.
Le second est le docteur Yusef Phan, directeur de la programmation chez BabbageCorp et l'un des architectes du système avionique qui a finalement été utilisé dans le cadre du système de vol de l'IA d'ArcCorp. Bienvenue, docteur.
DR. YUSEF PHAN : Heureux d'être ici. Merci de me recevoir.
Alors Craig, depuis l'annonce d'ArcCorp, vous avez été assez critique sur l'ensemble du concept.
CRAIG BURTON : Je suppose que c'est une façon polie de le dire.
Comment le diriez-vous ?
CRAIG BURTON : Je pense que c'est une parodie pour les hommes et les femmes qui risquent leur vie en transportant des marchandises.
DR. YUSEF PHAN : Je pense que ce système répondrait précisément à ce problème. Leur éviter de risquer leur vie. C'est dangereux là dehors.
CRAIG BURTON : Bien sûr que ça l'est. Le fait est qu'aucun système ne sera jamais aussi bon qu'un pilote expérimenté.
DR. YUSEF PHAN : Au début peut-être, mais ce sont des programmes adaptatifs, capables d'apprendre et de se développer au fur et à mesure des missions.
CRAIG BURTON : Dites-moi, vous pensez qu'il sera un jour capable de dire quand il est sur le point de tomber dans une embuscade ?
DR. YUSEF PHAN : Je suis sûr que scanner un vaisseau pour voir les armes et les boucliers s'activer est une assez bonne indication d'une intention malveillante.
CRAIG BURTON : Oui, mais comment saura-t-il que l'intention malveillante est dirigée contre lui ou contre une autre menace ?
DR. YUSEF PHAN : Je ne sais pas. Vous présentez une situation hypothétique dont vous seul connaissez les paramètres.
CRAIG BURTON : Mon père avait l'habitude de me dire, "Fils, il est facile d'être intelligent, mais pas facile d'être sage." Le fait est que vous demandez à un ordinateur de prendre une décision. Peu importe s'il devient intelligent, il prendra toujours des décisions logiques, et je pense que nous savons tous que les gens ne sont pas si logiques.
DR. YUSEF PHAN : Voici ce que je sais. ArcCorp a rapporté plus de 300 millions de crédits de pertes au cours du dernier cycle, dues à des erreurs humaines et à des compensations versées aux familles des pilotes perdus lors d'attaques pirates et Vanduul.
CRAIG BURTON : Seigneur, tu es sûr que tu n'es pas vraiment un membre de l'équipe marketing d'ArcCorp ?
DR. YUSEF PHAN : Laissant l'argent de côté pour le moment, je pense que sauver la vie de vos collègues transporteurs vaut bien l'inconvénient de chercher du travail.
CRAIG BURTON : N'essayez pas de dénaturer la situation. J'ai le cœur brisé chaque fois que j'entends parler d'un transporteur qui se fait exploser pendant un trajet, mais nous avons tous signé pour ce travail. Personne ne nous a jamais épargné les risques. Nous les avons pris avec courage comme nous le faisons pour tout le reste. Le fait est que votre programme nous prive de l'opportunité de subvenir aux besoins de nos familles.
Je pense que personne ne conteste la possibilité de sauver la vie des pilotes sur les routes de transport à travers un espace dangereux, mais parlons un instant des implications financières de ce programme.
CRAIG BURTON : Le nerf de la guerre pour l'entreprise, vous voulez dire.
L'analyste économique Ryu Tarkovsky nous donne son point de vue sur cette question.
RYU TARKOVSKY : Bonjour.
Parlons donc des coûts. Vous avez proposé une analyse assez complète des risques et des avantages possibles de l'adoption d'une flotte de transporteurs contrôlés par l'IA.
CRAIG BURTON : c'est une image horrible.
RYU TARKOVSKY : Oui, Eria, c'est exact.
Qu'avez-vous découvert ?
RYU TARKOVSKY : L'humanité a toujours eu une aversion pour la notion d'IA. En particulier après la désastreuse expédition d'Artémis -
DR. YUSEF PHAN : Techniquement, nous ne savons pas si Janus était effectivement responsable de cela.
RYU TARKOVSKY : Quoi qu'il en soit, le public semble l'apprécier sur le plan théorique, mais l'application réelle semble être une autre affaire. Les anthropologues pensent qu'il y a une partie innée de notre être qui a besoin de contrôler. C'est pourquoi les ordinateurs de vol sont conçus pour assister le pilote, en gérant les mathématiques complexes nécessaires au vol, plutôt que de confier le contrôle à un système.
CRAIG BURTON : C'est aussi très ennuyeux. Je veux dire, pourquoi ne voudriez-vous pas le piloter vous-même si vous en aviez le choix ?
DR. YUSEF PHAN : Oh je ne sais pas, maximiser l'efficacité du carburant, opérer avec des réflexes qui sont significativement plus élevés que les vôtres...
Messieurs, s'il vous plaît. Continuez, M. Tarkovsky.
RYU TARKOVSKY : Le premier obstacle serait donc que leurs clients adoptent le concept d'IA en usage courant. Financièrement parlant, cela pourrait être un investissement rentable à long terme. Le premier navire est apparemment un Caterpillar modifié, mais à terme, s'ils choisissent de dépenser les crédits, ils pourraient concevoir un tout nouveau type de navire qui n'aurait pas besoin d'être conçu avec des fonctions de survie à l'esprit, éliminant ainsi de nombreux systèmes et augmentant la capacité de chargement, ce qui augmenterait l'argent généré par trajet.
Malheureusement, cette phase initiale sera la plus coûteuse. Comme l'a dit le Dr Phan, ce sont des systèmes d'apprentissage. Tous les ingénieurs système auxquels j'ai parlé prévoient qu'un petit pourcentage de navires provoquera des accidents très coûteux, accidents qui auraient pu être facilement évités par la présence d'un pilote humain capable de "lire les circonstances", si vous voulez.
La situation se transformera en un jeu financier de bluff de l'homme mort : ArcCorp pourra-t-elle résister à l'hémorragie financière des accidents et des cargaisons perdues suffisamment longtemps pour que l'IA apprenne suffisamment pour cesser de commettre ces erreurs ?
DR. YUSEF PHAN : Si je peux intervenir, M. Tarkovsky, vous supposez que les IA ne seront pas capables d'apprendre les unes des autres. Les programmes enverront constamment des informations sur leurs activités à des stations relais, qui seront acheminées vers un centre central puis retransmises aux pilotes de drones. Ainsi, tous apprendront des erreurs et des réussites des autres.
CRAIG BURTON : Bon, eh bien, le trafic communautaire n'est pas exactement fiable les bons jours...
DR. YUSEF PHAN : ArcCorp a déjà annoncé qu'ils prévoient d'inclure des pilotes humains pour agir en tant que "moniteurs" pendant que le système d'IA est contrôlé et apprend. Je pense donc que vos inquiétudes sont un peu infondées, M. Burton.
CRAIG BURTON : C'est vrai, mais la première fois qu'un vaisseau-citerne de 200 000 kg s'écrase sur une station orbitale parce qu'il n'a pas été informé que le bras d'amarrage était en construction, je suis sûr que vous changerez d'avis.
DR. YUSEF PHAN : Si vous êtes si méfiant à l'égard des vaisseaux contrôlés par ordinateur, M. Burton, pourquoi laissez-vous votre propre ordinateur prendre le contrôle lors de la navigation d'un point de saut ?
CRAIG BURTON : C'est différent. Ce n'est pas plus avancé que de lire un enregistrement à travers les contrôles du vaisseau, et nous le faisons depuis plus de 1000 ans. Donc ce n'est pas du tout une question d'IA, vraiment.
DR. YUSEF PHAN : C'est hypocrite, voilà ce que c'est.
Nous allons faire une petite pause. À notre retour, nous examinerons les ramifications juridiques des engins pilotés par l'IA. Dans le passé, les pilotes étaient partiellement responsables des dommages ; aujourd'hui, la responsabilité incombe-t-elle uniquement à l'entreprise ou la programmation de l'IA peut-elle également être tenue pour responsable ? Vous ne voudrez pas manquer ça. Alors rechargez vos armes et préparez-vous pour un nouveau ShowDown !
PAUSE TRANSCRIPT