Répondre aux plus grandes questions de l’IA nécessite une approche interdisciplinaire

By | September 15, 2023

Lorsque Elon Musk a annoncé le mois dernier l’équipe derrière sa nouvelle société d’intelligence artificielle xAI, dont la mission serait de « comprendre la véritable nature de l’univers », il a souligné l’importance de répondre aux préoccupations existentielles concernant les promesses et les périls de l’IA.

Que la société nouvellement créée puisse réellement aligner son comportement pour réduire les risques potentiels de la technologie, ou qu’elle vise uniquement à obtenir un avantage sur OpenAI, sa création soulève des questions importantes sur la manière dont les entreprises devraient réellement répondre aux préoccupations concernant l’IA. En particulier:

  1. Qui en interne, en particulier dans les grandes entreprises modèles d’entrée de gamme, se pose réellement des questions sur les impacts à court et à long terme de la technologie qu’ils développent ?
  2. Abordent-ils les problèmes avec une perspective et une expertise appropriées ?
  3. Arrivent-ils à concilier de manière adéquate les considérations technologiques avec les enjeux sociaux, moraux et épistémologiques ?

À l’université, je me suis spécialisé en informatique et en philosophie, ce qui semblait à l’époque une combinaison incongrue. Dans une salle de classe, j’étais entouré de personnes qui réfléchissaient profondément à l’éthique (« Qu’est-ce qui est bien, qu’est-ce qui ne va pas ? »), à l’ontologie (« Qu’y a-t-il vraiment ? ») et à l’épistémologie (« Que savons-nous vraiment ? »). Dans un autre, j’étais entouré de gens qui faisaient de l’algorithme, de la programmation et des mathématiques.

Vingt ans plus tard, par chance et par clairvoyance, la combinaison n’est pas si disharmonieuse dans le contexte de la façon dont les entreprises devraient penser l’intelligence artificielle. Les enjeux de l’impact de l’IA sont existentiels et les entreprises doivent prendre un engagement authentique, à la hauteur de ces enjeux.

L’IA éthique nécessite une compréhension approfondie de ce qui existe, de ce que nous voulons, de ce que nous pensons savoir et de la manière dont l’intelligence se développe.

Cela signifie doter leurs équipes de direction d’intervenants bien équipés pour résoudre les conséquences de la technologie qu’ils développent, ce qui dépasse l’expertise naturelle des ingénieurs qui écrivent du code et renforcent les API.

L’intelligence artificielle n’est pas un défi exclusivement informatique, neurologique ou d’optimisation. C’est un défi humain. Pour y remédier, nous devons adopter une version durable d’une « réunion des esprits sur l’intelligence artificielle », d’une ampleur équivalente à la réunion interdisciplinaire d’Oppenheimer dans le désert du Nouveau-Mexique (où je suis né) au début des années 1940.

La collision du désir humain avec les conséquences involontaires de l’intelligence artificielle aboutit à ce que les chercheurs appellent le « problème d’alignement », décrit de manière experte dans le livre de Brian Christian « The Alignment Problem ». Essentiellement, les machines ont la capacité de mal interpréter nos instructions les plus complètes, et nous, en tant que supposés maîtres, avons peu d’expérience pour leur faire comprendre pleinement ce que nous pensons vouloir qu’elles fassent.

Le résultat net : les algorithmes peuvent favoriser les préjugés et la désinformation et ainsi corroder le tissu de notre société. Dans un scénario plus dystopique, à long terme, ils pourraient prendre une « tournure dangereuse » et les algorithmes auxquels nous avons cédé trop de contrôle sur le fonctionnement de notre civilisation prendront le dessus sur nous tous.

Contrairement au défi d’Oppenheimer, qui était scientifique, l’IA éthique nécessite une compréhension approfondie de ce qui existe, de ce que nous voulons, de ce que nous pensons savoir et de la manière dont l’intelligence se développe. Il s’agit certainement d’une entreprise analytique, même si elle n’est pas strictement scientifique. Cela nécessite une approche intégrative ancrée dans la pensée critique des sciences humaines et des sciences.

Les penseurs de différents domaines doivent, plus que jamais, travailler en étroite collaboration. L’équipe de rêve d’une entreprise essayant d’atteindre cet objectif ressemblerait à :

  • Expert principal en intelligence artificielle et éthique des données : Cette personne abordera les questions à court et à long terme liées aux données et à l’IA, y compris, sans s’y limiter, l’articulation et l’adoption de principes éthiques en matière de données, le développement d’architectures de référence pour une utilisation éthique des données, les droits des citoyens concernant la façon dont leurs données sont consommées et utilisés par l’IA et les protocoles pour modéliser et contrôler de manière appropriée le comportement de l’IA. Celui-ci devrait être distinct du directeur de la technologie, dont le rôle consiste en grande partie à exécuter un plan technologique plutôt qu’à gérer ses répercussions. Il s’agit d’un poste de direction au sein du personnel du PDG qui comble le fossé de communication entre les décideurs internes et les régulateurs. Vous ne pouvez pas séparer un éthicien des données d’un éthicien de l’IA : les données sont la condition préalable et le carburant de l’IA ; L’intelligence artificielle elle-même génère de nouvelles données.
  • Architecte philosophe en chef : Ce rôle répondrait aux préoccupations existentielles à long terme en mettant l’accent principalement sur le « problème d’alignement » : comment définir les garanties, les politiques, les portes dérobées et les coupe-circuit pour l’IA afin de l’aligner dans la plus grande mesure possible sur les besoins et les objectifs humains.
  • Neuroscientifique en chef : Cette personne aborderait des questions cruciales sur la sensibilité et la manière dont l’intelligence se développe au sein des modèles d’IA, quels modèles de cognition humaine sont les plus pertinents et utiles pour le développement de l’IA, et ce que l’IA peut nous apprendre sur la cognition humaine.

Fondamentalement, pour transformer les découvertes de l’équipe de rêve en une technologie responsable et efficace, nous avons besoin de technologues capables de traduire les concepts abstraits et les questions posées par les « Trois » en logiciels fonctionnels. Comme pour tous les groupes technologiques actifs, cela dépend de la vision d’ensemble du chef de produit/concepteur.

Une nouvelle génération de chefs de produits créatifs à l’ère de l’IA doit évoluer en douceur à travers de nouvelles couches de la pile technologique qui incluent une infrastructure de modèles pour l’IA, ainsi que de nouveaux services pour des choses comme le réglage et le développement de modèles propriétaires. Ils doivent être suffisamment inventifs pour imaginer et concevoir des workflows « Human in the Loop » afin de mettre en œuvre des protections, des portes dérobées et des kill switch comme prescrit par l’architecte philosophe en chef. Ils doivent avoir la capacité d’un ingénieur de la Renaissance à traduire les politiques et les protocoles du responsable de l’IA et de l’éthique des données en systèmes fonctionnels. Ils doivent apprécier les efforts du neuroscientifique en chef pour passer des machines aux esprits et discerner adéquatement les résultats qui pourraient donner naissance à une intelligence artificielle plus intelligente et responsable.

Nous considérons OpenAI comme un excellent exemple d’entreprise modèle bien développée, extrêmement influente et aux prises avec ce défi de personnel : elle a un scientifique en chef (qui est également son co-fondateur), un responsable de la politique mondiale et un avocat général.

Cependant, sans les trois postes de direction que j’ai décrits ci-dessus, des questions plus importantes concernant les répercussions de leur technologie restent sans réponse. Si Sam Altman souhaite aborder le traitement et la coordination de la superintelligence de manière expansive et réfléchie, la construction d’une éducation holistique est un bon point de départ.

Nous devons construire un avenir plus responsable, dans lequel les entreprises seront les gardiennes de confiance des données des individus et où l’innovation basée sur l’IA sera bénéfique. Dans le passé, les équipes juridiques ont eu gain de cause sur des questions telles que la confidentialité, mais les plus brillants d’entre eux reconnaissent qu’ils ne peuvent pas résoudre à eux seuls les problèmes d’utilisation éthique des données à l’ère de l’intelligence artificielle.

Amener des points de vue divers et ouverts d’esprit autour de la table où les décisions sont prises est le seul moyen de mettre les données éthiques et l’IA au service de l’épanouissement humain, tout en gardant les machines à leur place.

Leave a Reply

Your email address will not be published. Required fields are marked *