Le premier chatbot, un petit logiciel permettant de simuler pour la première fois une conversation avec une voix humaine, a été mis au point en 1966 et s'appelait Eliza. À partir de ce moment, la croissance de l'intelligence artificielle s'est accélérée. Des algorithmes de plus en plus sophistiqués ont été développés, donnant naissance à ce que nous appelons aujourd'hui l'intelligence artificielle (IA) ou Artificial Intelligence (AI). Cela fait des années que nous utilisons des chatbots, souvent sans nous en rendre compte, comme assistants domestiques, tels que Google Home et Amazon Alexa, pour activer les systèmes mécaniques, nous les utilisons comme navigateurs dans les voitures ou les téléphones portables, etc. Des niveaux plus avancés ont donné naissance à des systèmes de guide aérien autoguidé et à d'importantes expériences de voitures sans conducteur. Cet article est tiré d'une communication que j'ai eu l'honneur de présenter lors du symposium "Artificial Intelligence. Un défi pour l'humanité" qui s'est tenu à Rome le 30 mars 20231.
L'avènement des GPT Chats
Des systèmes d'intelligence artificielle ont récemment été réalisés pour écrire des articles, des e-mails et des poèmes, créer des messages sociaux, corriger des erreurs mathématiques, etc. Des machines qui tentent d'imiter le fonctionnement du cerveau humain grâce à des réseaux de neurones artificiels (artificial neural networks), qui se chargent d'apprendre en stockant une énorme quantité de données disponibles sur le web. Ce nouveau système, développé par l'OpenAI, une organisation à but non lucratif sur la recherche en IA et sa promotion du GPT, a été baptisé Chat Generative Pre-trained Transformer (GPT) ou simplement Chat GPT. De l'apprentissage automatique (machine learning), nous sommes passés aux machines d'apprentissage profond (deep learning), dont la dernière génération est le Chat GPT4. Avec ce dernier niveau d'intelligence artificielle, grâce à la dernière génération d'algorithmes, la machine a la capacité de s'enrichir de plus en plus automatiquement avec les données du web (textes, images et sons) sans l'aide de l'homme pour les rechercher et les stocker, et de les traiter, en étant capable de répondre avec de nouveaux algorithmes puissants. C'est un logiciel qui peut répondre à des questions et converser, répondre à des tests médicaux ou d'avocats, en faisant beaucoup moins d'erreurs que les humains.
Une découverte qui en inquiète certains
Une inquiétude croissante envahit l'ensemble de l'humanité face à la vitesse à laquelle l'intelligence artificielle (IA) s'affirme de plus en plus, en particulier le niveau élevé atteint par le ChatGPT4. C'est l'usage continu que nous en faisons inconsciemment depuis des années qui participe à l'accélération du développement de cette intelligence, en enrichissant de plus en plus les puissantes bases de données où sont affectés les milliards de données déjà existantes et utilisées par l'IA. Il nous semble désormais normal de parler sur notre téléphone portable et de voir que nos mots sont transformés en phrases, corrigés grammaticalement, et traduits dans la langue que nous voulons, y compris l'arabe ou le chinois. De parler à notre téléviseur pour qu'il sélectionne le film ou la musique que nous aimons.
Lorsque nous utilisons notre téléphone portable pour écrire un texte, il passe presque inaperçu que les mots de nos phrases sont souvent anticipés automatiquement, qu'une recherche sur internet est de plus en plus rapide et propose un nombre toujours plus important d'informations. Et n'est-ce pas à l'intelligence artificielle que nous sommes désormais soumis ?
Cette accoutumance est confirmée par notre manque d'attention aux conséquences de l'IA qui se manifestent dans le monde entier.
Les assurances de Bill Gates
Bill Gates a publié le 21 mars 2023 une réflexion sur l'IA sur l'un de ses blogs, mettant principalement l'accent sur les aspects positifs et sur le fait que l'IA deviendra un véritable soutien pour l'homme et l'aidera dans ses activités professionnelles. Une brève mention est également faite des travailleurs qui devront encore changer leurs activités lorsqu'ils seront remplacés par l'IA. L'article décrit également les avantages considérables dont bénéficieraient les personnes, en particulier les plus pauvres, en matière de soins de santé et d'éducation. L'article dans son ensemble est très optimiste et souligne que l'IA améliorera la vie des humains. En fin de compte, aujourd'hui, non seulement Bill Gates, mais l'humanité tout entière semble applaudir le haut niveau de progrès atteint et auquel elle s'est maintenant adaptée, notamment parce que la croissance de l'IA et son impact social sont encore durables.
L'inquiétude est toutefois revenue récemment sur le devant de la scène, principalement parce que nous ne connaissons pas encore les limites réelles que l'IA pourra réellement atteindre dans sa croissance vertigineuse, notamment parce que nous lisons souvent qu'elle pourra remplacer l'esprit humain avec des capacités opérationnelles bien plus importantes. Dans un commentaire posté par un lecteur sur le blog précité de Bill Gates, il est écrit : «J'ai tellement peur de ce que les humains peuvent faire avec une telle technologie et de ce qu'une technologie conçue par des humains peut faire par elle-même. J'ai vu des dictateurs, des radicaux religieux, de grandes entreprises polluantes, des "conquérants" de l'espace, des mafieux, des cartels de la drogue et bien d'autres en position de pouvoir, et croyez-moi, ils utiliseront l'IA à leurs propres fins maléfiques/humaines. J'espère seulement que nous ne verrons pas la fin de l'humanité à cause de l'intelligence artificielle». Une crainte que l'on peut certainement partager, il est donc normal de se demander si ce "progrès", au-delà de ses avantages vantés, sera vraiment une bonne chose ou une véritable source d'inquiétude pour l'humanité, si, par exemple, il pourra résoudre les problèmes d'emploi liés à l'alimentation, aux guerres, aux ressources énergétiques, à l'exploitation humaine et aux biens matériels naturels existants, à la sécurité internationale ou si, au contraire, il risque d'accroître ces problèmes et de devenir un boomerang.
La dynamique des innovations technologiques
Au cours des dernières décennies, les changements, bien que rapides, ont été acceptés par l'humanité avec des processus évolutifs également rapides, presque en phase avec la vitesse de l'évolution technologique. Il est évident que cette technologie pourrait être utilisée pour une myriade d'activités qui pourraient aider l'humanité plus que ce n'est déjà le cas aujourd'hui. Mais alors, pourquoi tant d'inquiétude ? Une grande attention a récemment été accordée aux conséquences qui pourraient résulter de ces dernières découvertes et surtout à la limite maximale encore floue qu'elles pourraient atteindre, notamment parce qu'on entend souvent parler de la réalisation d'une IA qui devrait simuler parfaitement l'esprit humain, en dépassant ses capacités en termes de rapidité de réponse et d'immensité des données qui ne peuvent être contenues dans la mémoire humaine.
La recherche ne doit pas se transformer en un défi à Dieu
La recherche de l'infini a toujours été l'ambition la plus haute et la plus légitime de l'homme. Presque une façon de se mesurer à celui qui a tout créé. C'est comme une soif insatiable que l'homme a de pouvoir connaître ce qui se trouve au-delà, en fait, le désir d'aller au-delà de ce qu'il connaît déjà a été le moteur le plus important de l'évolution technologique. À mon avis, c'est le fruit de l'aspiration naturelle de l'homme, tant sur le plan physique que spirituel, car cela contribue à la croissance intérieure de l'homme. Mais cette aspiration doit être considérée comme légitime tant que l'on est conscient de l'impossibilité de construire un robot ayant des caractéristiques générales similaires ou supérieures à celles de l'homme. Pour un croyant de n'importe quelle religion, une telle aspiration signifierait l'arrogance de vouloir surpasser ce que le Créateur a réalisé. Une arrogance qui pourrait amener l'homme à perdre temporairement les limites de la réalité accessible, créant de dangereuses illusions et le mettant dans la position de vouloir mettre en œuvre un véritable défi à Dieu. Dans le christianisme, le bel ange qui a défié Dieu avec ambition et arrogance a été chassé de l'Eden et appelé Satan.
Les dangers potentiels de la croissance exponentielle de l'IA
Étant donné que seuls les aspects positifs de l'IA sont souvent vantés, je soulignerai ci-après certains aspects négatifs potentiels pour l'humanité qui pourraient résulter en particulier de son utilisation sans discernement.
Perte d'emplois et accroissement des inégalités
La première conséquence, et peut-être la plus importante, pourrait être la création de machines de plus en plus sophistiquées qui remplaceront de plus en plus les humains dans l'exécution de leurs activités professionnelles, leur causant des inconvénients et des soucis naturels. En effet, il est bien connu qu'au cours des dernières années, la croissance démographique vertigineuse et le remplacement des activités humaines par des machines intelligentes ont entraîné une augmentation significative du chômage. Les premiers rapports semblaient atténuer cette inquiétude, car avec l'avènement de l'IA, il y avait la perspective de convertir certaines activités humaines actuelles en activités humaines de plus haut niveau. Malheureusement, cette conversion n'a eu lieu que dans une faible mesure et a surtout concerné des personnes qui possédaient déjà la culture et les aptitudes nécessaires à des activités scientifiques de haut niveau. Il faut également souligner que la rapidité des nouvelles découvertes dans ce domaine n'a pas permis à l'humanité d'évoluer au même rythme et que ce fossé aura tendance à se creuser, entraînant une augmentation des inégalités qui se manifesteront de manière différente dans les différents pays du monde, notamment en fonction de leur statut social, économique et culturel actuel.
Augmentation des migrations
La perte d'emplois due à l'IA, qui se produit déjà dans les pays les plus développés, dans les pays où les taux de pauvreté et d'analphabétisme sont élevés, sera certainement dévastatrice. Et puisque la tendance internationale est d'occuper de plus en plus de pouvoir économique dans ces pays, souvent riches en matières premières très attractives, il est probable de faire l'hypothèse que dans ces pays le travailleur traditionnel risque de réduire les possibilités déjà minimes qu'il a de accès au travail. Ainsi, sa figure se réduirait à celle d'un être vivant dont la présence serait de moins en moins nécessaire et peut-être même moins opportune car elle tendrait à déstabiliser le pouvoir de systèmes locaux et internationaux forts. La pauvreté pourrait donc aussi devenir un déclencheur de tensions internes, d'émeutes difficilement contrôlables et parfois de guerres civiles. Il ne faut pas sous-estimer le fait que ces peuples pauvres, avec les nouvelles générations vivant dans des conditions qui limitent leur survie, connaissent une forte croissance démographique et sont de plus en plus indignés par ce qui se passe autour d'eux. Ces conditions ne sont certainement pas un signe avant-coureur de stabilité et de paix, mais presque certainement une cause majeure d'augmentation de l'émigration.
Durcissement mental
La recherche est effectuée rapidement et automatiquement par l'IA qui, à son tour, avec le haut niveau technologique atteint, augmentera de plus en plus et automatiquement la vitesse à laquelle elle recherche et stocke de nouvelles données, formant presque un circuit d'auto-exaltation du phénomène, une sorte de ce que l'on appelle en physique la "résonance" : plus les données sont accumulées automatiquement, plus la capacité opérationnelle de l'IA à rechercher, collecter et traiter de nouvelles données s'accroît.
Par conséquent, il sera de moins en moins nécessaire de stimuler l'esprit humain dans les activités de recherche, car la recherche elle-même sera en partie réalisable directement par l'IA.
Cela conduira de plus en plus à une sorte de durcissement de l'esprit humain, créant un véritable processus d'involution au fil du temps et une forte réduction de la capacité de production humaine. Cette perte ne pourra pas être facilement compensée par l'IA, quelles que soient ses performances élevées, car elle ne pourra jamais prendre en compte les aspects congénitaux de l'esprit humain, ni les aspects socio-politiques des individus humains dont la variabilité est extrêmement élevée.
Gestion de la cybersécurité
La cybersécurité, c'est-à-dire la capacité à protéger et à contrôler les systèmes informatiques, sera également l'un des grands enjeux liés à l'IA. La cybersécurité sera le seul outil capable de limiter les risques, même involontaires, d'une propagation anormale des actions de l'IA. Des actions qui pourraient conduire, à la limite, à l'autodestruction de l'humanité ou à la destruction planifiée d'une partie de celle-ci. Il n'est pas exclu que nous soyons tellement fascinés par les bénéfices apportés et suscités par l'IA que nous ne soulignons que ou principalement les aspects positifs découlant de sa mise en œuvre et négligeons la sécurité et les énormes dangers qui peuvent découler de son éventuelle mauvaise utilisation. On disait autrefois que "celui qui détient les clés du web détient les clés du monde", et cette prédiction a déjà été mise en pratique lorsque, par exemple, certains grands réseaux informatiques ont été bloqués pendant de courtes périodes en raison d'une défaillance ou délibérément. Il est clair que le monde entier ou une grande partie de celui-ci peut être paralysé dans de telles conditions.
En élargissant ce concept, il est facile d'imaginer ce qui pourrait se produire si le plus haut niveau d'intelligence artificielle était laissé aux mains d'une seule personne ou d'un seul pays. La soi-disant paix armée serait prolongée, mais dans ce cas, celui qui aura le dessus sera toujours celui qui atteindra le premier les niveaux élevés d'IA, parce qu'il en aura le contrôle total. Malheureusement, l'histoire nous enseigne que la soif de pouvoir peut pousser les gens à commettre des actes répréhensibles, voire presque inimaginables. La sécurité signifie également une plus grande probabilité de paix. Dès lors, nous nous sommes demandés, par exemple, si l'IA sera capable d'arbitrer les problèmes de paix ou sera-t-elle capable de faire les bons choix alors que la vie ou la mort de centaines de personnes pourrait résulter de ses décisions ? Les choix ne suivront certainement pas une éthique, ni une véritable conscience, mais procéderont pour atteindre des objectifs programmés par ceux qui ont effectué les méthodologies d'enrichissement des données, de leur sélection et de leur comparaison en cas de choix.
Des freins potentiels à l'expansion inconsidérée de l'IA
L'émergence des Chat GPT a immédiatement fait penser à la possibilité de créer un robot doté de capacités supérieures à celles des humains. Il semble toutefois que cela ne soit pas réalisable à moins que le robot ne possède ou ne puisse acquérir certaines capacités humaines spécifiques telles que la conscience, l'empathie, l'intuition, la capacité d'introspection, un code d'éthique, etc.
Robots et conscience
Comment un robot pourrait-il jamais avoir sa propre conscience, cette même conscience qui donne à l'homme une conscience de lui-même et de ses relations avec le monde extérieur dans lequel il vit, de l'autocontrôle et de l'autorégulation, qui lui permet de faire la médiation entre les nombreux stimuli et sensations qu'il reçoit du monde dans lequel il vit et qui sont variables pour chaque homme. Pour avoir une conscience, le robot doit être capable de recevoir et de reconnaître des sensations et des émotions à travers la perception visuelle, auditive et olfactive et de les traiter en étant capable d'identifier les relations qui existent entre son environnement et chaque individu. Pour y parvenir, il ne semble pas suffisant d'avoir la capacité de traiter la myriade d'informations disponibles, qui dépasse de loin ce que l'esprit humain peut contenir, mais il faudrait qu'un algorithme, simulant l'homme, soit capable de distinguer le bien du mal, en agissant comme il le fait pour l'homme également par le biais du type de spiritualité qui guide chaque homme par rapport aux aspects matériels de la vie. L'IA pourrait-elle un jour avoir ce type de conscience, typique des capacités humaines, qui, par la formation d'une conscience morale, pourrait guider ses actions vers des aspects éthiques ?
Robots et empathie
Si l'homme a besoin d'aide, l'IA peut-elle intervenir positivement ? L'IA pourrait-elle avoir de l'empathie, c'est-à-dire la capacité de comprendre, sans demande particulière, et de respecter les humains et d'entrer en relation avec eux dans un esprit de collaboration et de respect mutuel ? Afin de comprendre l'homme en cas de besoin, le robot devrait avoir la capacité de se mettre à sa place, mais pour cela il devrait avant tout avoir la capacité de ressentir ses propres émotions, ce qui lui permettrait de reconnaître aussi les émotions des autres et surtout de l'homme. Chez les humains, par exemple, l'empathie se manifeste aussi par un simple regard qui peut véhiculer une émotion forte ou un état d'esprit particulier. En revanche, il suffit de remonter à l'origine du mot pour comprendre si cela est envisageable pour un robot. Le mot vient du grec "en-pathos" qui, littéralement traduit, signifie "sentir à l'intérieur". Il ne semble toujours pas concevable qu'un robot puisse ressentir une sensation si intense qu'il puisse éprouver une émotion alors différente pour chaque homme.
Robots et intuition
L'homme est doté d'une capacité d'intuition, qui est souvent étouffée par la rationalité, mais l'intuition n'est pas fondée sur le raisonnement, car elle provient principalement du subconscient. Elle fait donc appel à des expériences personnelles qui ne peuvent pas être saisies dans la base de données générale qu'utilise l'IA, qui recueille les données du monde du web. La connaissance du fonctionnement de l'intuition chez l'homme n'est toujours pas claire, nous savons que la connaissance rationnelle est basée sur les informations que nous collectons et la façon dont nous les traitons, mais nous ne savons pas grand-chose sur le fonctionnement de la connaissance intuitive, au-delà de ses parties du cerveau dans lequel il est traité. De plus, il n'est pas possible d'acquérir certaines données sur les origines de l'intuition en utilisant celles provenant d'un individu donné puis en les insérant dans le recueil général des données utilisables par l'IA pour ensuite les étendre à d'autres individus ayant caractéristiques très différentes.
Robots et introspection
Pour qu'un processus d'introspection, c'est-à-dire d'observation des faits de sa propre conscience, puisse avoir lieu, l'individu doit s'éloigner de la pensée rationnelle et analytique afin d'être en mesure de faire des évaluations sans aucun conditionnement extérieur. Cela est possible grâce à la méditation, qui permet à l'esprit humain détendu d'évaluer, sans conditionnement, des aspects sociaux difficiles à évaluer dans les conditions normales de la vie quotidienne. Mais nous savons que les éléments essentiels d'une bonne introspection sont: une bonne capacité d'autoréflexion, la capacité de ressentir de l'empathie et une bonne intelligence émotionnelle qui permet de reconnaître, d'utiliser et de comprendre ses propres émotions et celles des autres.
L'absence de code éthique
Si l'IA vise à remplacer les humains par des machines, ces dernières pourront-elles un jour respecter une éthique dans leurs relations avec les humains ? En particulier, comment agiront-elles en matière de sécurité dans les activités qu'elles auront à accomplir, sachant que l'absence de sécurité des machines dans leurs opérations pourrait avoir des répercussions immédiates sur l'homme et son intégrité physique ? Ils diront : "un circuit est pratiquement hors service, la machine a donc créé une catastrophe avant même d'être rendue inoffensive automatiquement ou par intervention humaine". Et si la mise « hors service » affecte les décisions d'activation d'armement militaire ou nucléaire, à quoi serviraient des excuses et/ou des justifications posthumes ? D'après certains rapports, il semble que la machine gérée par l'IA soit finalement moins susceptible de commettre des erreurs qu'un être humain, mais l'être humain dans des situations stratégiques consulte d'autres humains qui s'exprimeront alors en fonction de leur éthique et de leur conscience. Que feraient les robots dans de telles occasions ? Pourraient-ils faire une consultation rapide ? Mais s'ils sont tous issus du traitement des mêmes données gérées par les mêmes algorithmes, les réponses ne pourraient pas être divergentes, donc la consultation serait superflue. Dans ces cas stratégiques, est-on sûr que le choix algorithmique sera le plus correct ou au moins le moins dangereux ? En général, si l'IA doit traiter avec des humains, sera-t-elle capable de traiter avec eux en reconnaissant leur valeur, leur dignité, leur fonction humaine ? Pourrait-elle avoir cette autonomie et cette capacité de prendre des décisions pour faire face à des situations de besoin ou d'inconfort avec les humains, ayant elle-même en fait remplacé les humains ? Peut-être pourrions-nous voir un aspect positif dans le fait que l'IA pourra faire son travail sans aucune discrimination d'ethnie, de nationalité, de religion, de sexe, de statut social, d'idéologie politique ou de toute autre différence ou caractéristique personnelle. À condition que l'algorithme dont dépend son travail ne soit pas altéré ou orienté vers d'autres fins par ceux qui gèrent l'algorithme ou ceux qui devraient gérer la sécurité.
Limites de l'IA qui semblent inatteignables à l'heure actuelle
Les capacités brièvement décrites ci-dessus ne semblent pas pouvoir être atteintes par l'IA pour le moment.
La limite à atteindre serait celle d'une machine parfaite, avec des algorithmes capables d'évaluer les expériences dérivées des aspects sociaux, des aspects politiques et des traditions mûries par chaque être humain. Si cela était réellement possible, ce serait un gouffre pour l'humanité, car nous aurions une machine capable de ressentir des émotions et de réagir à des stimuli qui tendraient à annuler la nécessité même de l'intervention humaine et à limiter l'homme lui-même.
Et au nom du respect des droits de l'homme, est-ce que ce sera l'IA qui décidera de ce qui est bon ou mauvais et en fonction de quoi ? En fin de compte, l'IA décidera-t-elle de ce qui est moral, sachant pertinemment qu'il n'existe pas de morale universelle ?
L'IA ne pouvant acquérir les expériences individuelles de tous les hommes, elle ne pensera toujours qu'en fonction des données en sa possession et des inputs reçus et dérivés des intérêts économiques et politiques précis de ceux qui la dirigent, elle tendrait ainsi à annuler toute forme d'humanité, faisant émerger de plus en plus les intérêts économiques et la soif de pouvoir et par conséquent les inégalités.
Il semble cependant qu'il n'y ait pas encore de perspective concrète de doter l'IA de telles capacités, et surtout que l'on puisse créer l'algorithme du génie, un don qui reste étroitement lié à certains hommes et n'est pas transférable d'un homme à l'autre.
Je me suis également demandé s'il y avait une limite à ce processus technologique, c'est-à-dire si une limite a été pensée ou si la vraie limite est pensée comme le clonage humain via une machine IA.
Intervention en Italie du Garant pour la protection des données personnelles
Par la mesure n°112 du 30 mars 2023, en Italie, le Garante pour la protection des données personnelles a bloqué l'utilisation du service Chat GPT4 principalement parce « qu'aucune information n'est fournie aux utilisateurs, ni aux personnes dont les données ont été collectées par OpenAI, L.L.C. et traitées par le service ChatGPT » et parce qu'il n'y a pas de contrôle sur l'accès aux données par les mineurs, etc. Cette mesure a été fortement critiquée, notamment par ceux qui y voyaient un frein au développement des nouvelles technologies. La suspension de l'utilisation du Chat GPT4 en raison de sa complexité et afin de ne pas alourdir cet article, il est jugé opportun d'en traiter ultérieurement..
Considérations finales
L'IA est le fruit de l'ingéniosité humaine et peut devenir un outil très important et indispensable pour faire le bien et un moyen opportun d'éviter des événements désastreux ou d'en limiter les dégâts. Nous ne pouvons pas sous-estimer le fait que tant de catastrophes, dues par exemple à des défaillances structurelles de barrages et de viaducs, auraient pu être évitées et tant de vies auraient pu être sauvées si seulement il y avait eu la possibilité d'un contrôle correctement surveillé et d'une interprétation adéquate et rapide des données dans le temps utile avant les catastrophes; activités et contrôles aujourd'hui principalement gérables grâce à l'IA.
Le président de Microsoft, Brad Smith, lors de sa rencontre avec le Pape François au Vatican le 13 février 2019, a déclaré à propos de l'IA, comme publié sur RAI NEWS le 13 février 2019 : «Entre de mauvaises mains, tout instrument peut devenir une arme si le pouvoir organisationnel de l'humanité ne parvient pas à suivre le rythme de la technologie elle-même. Pour que les gens aient confiance dans la technologie, nous devons penser au-delà de la technologie elle-même ; nous avons besoin de principes éthiques forts, de nouvelles lois évoluées, de former les gens avec de nouvelles compétences et même de réformes du marché du travail. Si nous voulons tirer le meilleur parti de cette technologie puissante et prometteuse qu'est l'intelligence artificielle, tous ces éléments doivent être réunis».
Cela signifie que des avantages ne seront obtenus que si les innovations sociales ont lieu en même temps que l'évolution de l'IA, ce qui n'est certainement pas facile étant donné la croissance exponentielle des capacités de l'IA par rapport à l'adaptation de l'homme dans ses processus d'évolution.
Le danger pourrait devenir réel si l'individu, pris d'un délire de toute-puissance, tentait de remplacer Dieu.
C'est pourquoi ce n'est certainement pas un hasard si, le 10 janvier 2023 au Vatican, les représentants des trois religions abrahamiques ont signé « l'Appel à l'éthique de l'IA » dans lequel les engagements suivants sont pris pour le développement éthique de l'IA :
«1. Transparence: en principe, les systèmes d'IA doivent être clairs et explicables.
2. Inclusion: les besoins de tous les êtres humains doivent être pris en compte afin que chacun puisse en bénéficier et que tous les individus puissent se voir offrir les meilleures conditions possibles pour s'exprimer de manière constructive.
3. Responsabilité: ceux qui conçoivent et utilisent l'IA doivent le faire de manière responsable et transparente.
4. Impartialité: les instruments d'IA ne doivent pas être développés avec partialité, mais doivent s'efforcer d'être justes, honnêtes et de protéger la dignité humaine.
5. Fiabilité: tout doit être mis en œuvre pour que les systèmes d'IA fonctionnent de manière fiable.
6. Sécurité et protection de la vie privée : les systèmes d'IA doivent garantir la sécurité et respecter la vie privée des utilisateurs».
Il s'agit donc d'un document très important, où émergent toutes nos craintes, propre à promouvoir une "algorétique", c'est-à-dire un développement éthique de l'intelligence artificielle, par la création d'un algorithme approprié. En effet, «les implications sociales et éthiques de l'IA et des algorithmes rendent nécessaires à la fois une algo-éthique et une gouvernance de ces structures invisibles qui régulent de plus en plus notre monde, afin d'éviter des formes inhumaines de ce que l'on pourrait appeler l'algo-cratie»2. La question reste cependant de savoir s'il y aura un jour une chance de mettre en œuvre ce programme en médiatisant les exigences technologiques et en tenant compte du fait que l'homme a aussi un côté spirituel qui ne pourra jamais être réalisé avec un algorithme particulier.
Le défi de l'IA a atteint un niveau très avancé dont on ne peut plus se passer. Reste à savoir ce qu'il adviendra de la conscience humaine, si elle sera capable de contrôler ou au moins d'atténuer le développement de l'IA afin que ce développement n'échappe pas au contrôle humain et que le progrès technologique ne se transforme pas en un véritable défi que l'homme lance à Dieu.
Notes
1 Le symposium, organisé par le comité de promotion dont Roberto Savio, directeur d'Other News, Sergio Bellucci, Lucio Pascarelli et Bruno Quinzi sont membres, a réuni d'éminents chercheurs nationaux et internationaux qui ont mis en lumière les questions critiques les plus importantes liées au niveau récemment atteint par l'intelligence artificielle et aux préoccupations humaines qui en découlent.
2 Paolo Benanti, Oracoli. Tra algoretica e algocrazia, Rome, Luca Sossella editore, 2018) - Paolo Benanti est un frère franciscain du Troisième Ordre Régulier et professeur de Théologie morale et de Bioéthique à l'Université Pontificale Grégorienne.