Par LEANDRO OLIVEIRA DA SILVA*
La société doit être consciente des problèmes critiques liés à la vie privée, aux préjugés, à la discrimination et aux inégalités que l'intelligence artificielle peut exacerber.
"L'esprit humain doit prévaloir sur la technologie" (Albert Einstein)
L’interaction homme-machine progresse de plus en plus, ce qui facilite la vie quotidienne. Un exemple en est la praticité obtenue grâce à l’intelligence artificielle (IA), qui permet une plus grande agilité dans l’accès aux connaissances combinée à moins de bureaucratie. L'intelligence artificielle est une technologie qui a des applications allant des tâches les plus simples, comme la recherche d'un concept travaillé en classe, aux plus complexes, comme la planification stratégique d'une entreprise.
Cependant, cette révolution technologique entraîne certains problèmes éthiques et sociaux qui ont un impact négatif sur la société. Avec toute cette puissance, il est nécessaire d’avoir la responsabilité de savoir utiliser cette technologie de manière positive et judicieuse. Si les algorithmes se voient confier la responsabilité d’interagir avec les humains, de prendre des décisions et d’exécuter des tâches, comment pouvons-nous garantir que cette responsabilité sera exécutée de manière éthique ?
Toute technologie qui émerge et profite à la société comporte des risques et des problèmes lorsqu’elle est mal utilisée, comme c’est le cas des réseaux sociaux, de la biotechnologie, des armes et de l’énergie nucléaire. L'intelligence artificielle est un ensemble de technologies qui créent des systèmes chargés d'effectuer des tâches qui, jusqu'alors, étaient effectuées par des êtres humains. Les implications éthiques de l’utilisation de l’intelligence artificielle sont profondes et complexes, compte tenu des dommages qui peuvent être causés dans la configuration de la société actuelle. Parmi les principales questions liées à l’éthique, on retrouve plusieurs problèmes liés à la vie privée, à la diversité, à la transparence, à la sécurité, etc.
Pour fonctionner correctement, l'intelligence artificielle nécessite une formation, qui peut être réalisée à l'aide de diverses techniques et outils, en fonction de la tâche que l'intelligence artificielle doit accomplir. Par exemple, dans les modèles linguistiques (qui sont l’une des applications les plus populaires de l’intelligence artificielle), la formation s’effectue par la collecte de données. Cette collecte se fait à travers des textes extraits de diverses sources, telles que des livres, des sites Internet, des réseaux sociaux, des articles, etc.
De nombreuses applications d'intelligence artificielle nécessitent un énorme volume de données qui peut conduire à une collecte excessive de données sur les personnes, telles que des informations sur la localisation, l'historique de recherche, les données familiales ou même des données biométriques. La collecte de données soulève de nombreuses questions pertinentes en matière de confidentialité, en raison de la manière dont les données sont stockées, utilisées et protégées. Cela devient un problème critique, car une éventuelle fuite de données sensibles pourrait entraîner des délits tels que le vol d’identité et la fraude.
Un autre problème critique associé à l’utilisation de l’intelligence artificielle est lié aux préjugés et à la discrimination. Le biais est le biais ou la distorsion des informations présentées par le système, conduisant à des résultats injustes ou inexacts. La collecte de données pour la formation peut reproduire des biais historiques issus des différentes sources consultées. Pour illustrer, imaginez qu’une entreprise décide d’utiliser l’intelligence artificielle pour embaucher de nouveaux employés et que les données utilisées pour former le système montrent un préjugé sexiste (des hommes occupant des postes de direction).
À partir de là, l’intelligence artificielle peut apprendre à favoriser les candidats masculins lors de la sélection de postes similaires. La discrimination est présente dans des résultats qui reproduisent des préjugés concernant le genre, l'orientation sexuelle, la religion, la race, l'origine ou d'autres particularités, traitant de manière inégale les personnes et les groupes sociaux.
Ces questions cruciales sont liées à un long processus historique, impliquant des facteurs économiques, sociaux et politiques, dans lequel les pays les plus riches développent plus rapidement des avancées technologiques que les pays les plus pauvres. Ainsi, l’utilisation de l’intelligence artificielle peut affecter l’économie mondiale et continuer à reproduire les inégalités entre les nations, puisque les pays qui disposent de plus de ressources et d’infrastructures avancées en recherche et développement ont un avantage dans la création de technologies de pointe. Il en résultera un fossé technologique entre les pays les plus développés et les pays les moins développés, ce qui influencera les revenus de la population et la capacité à faire face aux problèmes nationaux.
Dans ces conditions, la promotion de l'éducation appliquée au développement des compétences technologiques doit être encouragée par l'État, notamment dans les pays les moins favorisés. Cela pourrait potentiellement réduire l’écart technologique entre les pays tout en sensibilisant les gens à la manière dont l’IA est créée et à la manière dont les données personnelles sont utilisées. Ceci est important pour briser le cycle de reproduction des inégalités et des discriminations. À mesure que nous progressons dans l’interaction homme-machine, il est impératif de veiller à ce que le progrès technologique s’accompagne de progrès éthiques et pédagogiques.
La société doit être consciente des problèmes critiques liés à la vie privée, aux préjugés, à la discrimination et aux inégalités que l’intelligence artificielle peut exacerber. En investissant dans la promotion d’une éducation visant à développer les compétences technologiques, en particulier dans les pays les moins favorisés, nous pouvons créer une voie plus équitable et plus consciente. De cette façon, nous pouvons garantir que l’esprit humain non seulement l’emporte sur la technologie, mais qu’il l’oriente également vers un avenir plus juste, inclusif et éthique.
Léandro Oliveira da Silva étudie pour un master en informatique à l'Université fédérale de São Paulo (Unifesp).
la terre est ronde existe grâce à nos lecteurs et sympathisants.
Aidez-nous à faire perdurer cette idée.
CONTRIBUER