L’intelligence artifficielle et l’éthique

Que nous le sachions ou non, l’intelligence artificielle (IA) est déjà ancrée dans la vie quotidienne. Il est présent dans la manière dont les flux de médias sociaux sont organisés. la façon dont les recherches prédictives apparaissent sur Google; et comment des services de musique tels que Spotify font des suggestions de chansons. La technologie contribue également à transformer le mode de fonctionnement des entreprises. La Commonwealth Bank of Australia, par exemple, a appliqué l’intelligence artificielle pour analyser 200 milliards de points de données afin de gagner du temps afin que ses responsables du service clientèle puissent se concentrer sur ce que leur titre suggère: servir les clients. En conséquence, la banque a enregistré une hausse de 400% de l’engagement des clients. IBM utilise cette technologie pour empêcher les plages emblématiques de l’Australie de disparaître. Les scientifiques utilisent ces capacités pour consacrer leur temps à la lutte contre l’érosion côtière, plutôt qu’à la cartographie, qui prend beaucoup de temps. Selon Stefan Hajkowicz, principal scientifique de Data61 en stratégie et prospective, l’IA crée une « fenêtre de résolution de problèmes capacités « . « L’IA va pouvoir sauver de nombreuses personnes du cancer, elle améliorera la santé mentale grâce à une séance de conseil adaptée à l’IA, elle aidera à réduire les accidents de la route. L’avenir apportera d’énormes avantages à votre vie grâce à l’IA », a-t-il déclaré. m’a dit. «L’humanité en Australie en a désespérément besoin. L’IA sera cruciale pour résoudre les dilemmes dans le secteur de la santé, par exemple, lorsque les dépenses de santé augmentent à un rythme insoutenable. société. » Un rapport de PwC publié en 2017 prévoyait que l’IA augmenterait le PIB mondial de 14% – ou 15,7 milliards de dollars – d’ici 2030. Ce qu’il ne faut pas faire Seth Lazar, directeur de l’école de philosophie de l’Université nationale australienne (ANU), estime que, compte tenu de l’impact de l’intelligence artificielle, il est possible d’améliorer la technologie. « Il y a tellement de façons d’utiliser l’IA pour le bien social, mais au cours des deux dernières années, il est devenu évident qu’il existe potentiellement beaucoup de Conséquences inattendues – sans mentionner le fait que l’IA pourrait potentiellement être utilisée pour de mauvaises raisons -, il existe donc une demande et un intérêt énormes pour développer l’IA avec nos valeurs », a-t-il déclaré.

Intelligence artificielle

Les preuves indiquant que l’IA a mal tourné pourraient être identifiées à l’époque aux États-Unis où des algorithmes d’IA ont été utilisés pour formuler des recommandations sur les peines de prison. Un rapport de ProPublica a conclu que le système d’IA était un parti pris contre les accusés noirs, car il recommandait systématiquement des peines plus longues par rapport à leurs homologues blancs pour le même crime. L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) a récemment accusé Siri d’Apple, Cortana de Microsoft et Alexa d’Amazon, ainsi que d’autres assistants numériques voix de femme, de renforcer « des préjugés sexistes courants ». « Parce que le discours de la plupart des assistants vocaux est féminin, cela signifie que les femmes sont des aides serviables, dociles et désireuses de plaire, disponibles à en appuyant sur un bouton ou avec une commande vocale émoussée telle que « hé » ou « OK ». L’assistant n’a aucun pouvoir d’agence au-delà de ce que le commandant lui demande « , déclarait le rougissement si je pouvais. « Il honore les commandes et répond aux requêtes, quel que soit leur ton ou leur hostilité. Dans de nombreuses communautés, cela renforce les préjugés sexistes généralement admis selon lesquels les femmes sont soumises et tolèrent les mauvais traitements. » Un autre exemple serait lorsque Tay, le bot de Microsoft pour l’intelligence artificielle, conçu à l’origine pour interagir avec les gens en ligne par le biais d’une conversation informelle et ludique, finissait par bouger de bonnes, mauvaises et mauvaises interactions. Après moins de 16 heures de lancement, Tay s’est transformé en un antisémite effronté, déclarant que « les nazis avaient raison ». Toby Walsh, professeur d’intelligence artificielle à l’Université de Nouvelle-Galles du Sud, a déclaré: « Il existe de nombreux exemples montrant que nos algorithmes peuvent hériter du biais existant dans la société si nous ne faisons pas attention ». Il a toutefois noté que si l’IA est soigneusement programmée pour poser les bonnes questions et conçu par diverses équipes, « il prendra des décisions beaucoup plus justes ». Tant pour Lazar que pour Hajkowicz, leur principale préoccupation concernant l’IA existante concerne les personnes qui construisent ces systèmes, qui, selon eux, ne font qu’extraire la valeur des personnes travaillant dans la Silicon Valley et issues de milieux élitistes.

« L’une des principales préoccupations qui a souvent été évoquée est que l’IA est construite par un grand nombre de jeunes hommes de race blanche âgés de 20 à 30 ans, car c’est l’effectif d’IA », a déclaré Hajkowicz. « Je pense que cela signifie immédiatement qu’ils construisent une IA qui est biaisée, mais je pense que cela vaut la peine de regarder comment cela se passe, et s’ils créent une IA qui reflète véritablement le monde diversifié. » Construire une IA éthique avec la diversité Selon M. Lazar, une partie de la solution permettant de surmonter ces biais systémiques inhérents aux systèmes d’IA existants consiste à mener des discussions ouvertes sur l’éthique, en tenant compte de points de vue divers en termes de culture, de genre, d’âge et de contexte socio-économique. – et comment pourrait être appliqué à l’IA. « Ce que nous devons faire, c’est trouver comment développer des systèmes qui incorporent des valeurs démocratiques et nous devons entamer un débat au sein de la société australienne sur ce que nous voulons que ces valeurs soient », a-t-il déclaré. « Il s’agit d’une révision et d’une révision constantes et de la reconnaissance du fait que notre société évolue et que nous devenons moralement meilleurs. » À l’ANU, un projet de recherche dirigé par Lazar est en cours et vise à intégrer les valeurs australiennes dans les systèmes d’IA. Une partie de celle-ci impliquera également la construction d’un cadre de conception pour l’intelligence morale machine pouvant être largement déployé. « Nous devons décider en tant que pays si, au bout du compte, nous voulons être des importateurs massifs de la technologie, étant donné que lorsque vous importez des technologies, vous importez également des valeurs « , a-t-il déclaré. Hajkowicz a averti que si l’Australie ne s’engageait pas dans l’écosystème mondial de l’IA, le pays risquerait d’être exposé à une autre éthique qui pourrait ne pas être compatible avec celle de l’Australie. « Il existe d’énormes différences dans la manière dont les pays abordent l’IA. Certains pays utilisent la reconnaissance faciale pour suivre les mouvements de personnes, par exemple », a-t-il déclaré. « D’autre part, c’est beaucoup plus limité et il y a beaucoup plus de précaution sur la mesure dans laquelle cela entre dans la vie personnelle de quelqu’un. « Je pense que l’Australie doit réfléchir au type d’avenir de l’IA qu’elle souhaite. C’est un début de discussion et un cadre d’éthique de l’IA est le point de départ; les gens doivent nous conduire dans l’avenir de l’IA que nous voulons. » Mais bien sûr, comme toute chose, l’approche doit être envisagée. Autrement, il est possible de commettre des erreurs, un peu comme celle que l’Université de Stanford avait faite lors du lancement de son Institute for Intelligence artificielle centrée sur l’homme.

Le futur de l’IA

L’objectif de l’institut était de permettre à un groupe diversifié de personnes d’avoir des discussions sur l’impact et le potentiel d’AI. « Nous avons maintenant l’occasion de façonner cet avenir en mettant en contact des humanistes et des spécialistes des sciences sociales avec des personnes qui développent une intelligence artificielle », a déclaré le président de Stanford, Marc Tessier-Lavigne. À l’exception des 121 membres du corps professoral annoncés à l’origine, la majorité d’entre eux étaient blancs et de sexe masculin. L’année dernière, Google a défini ses principes d’intelligence artificielle afin de garantir que toutes les applications d’intelligence artificielle qu’elle construit répondent à sept objectifs clés: il est socialement bénéfique; évite de créer ou de renforcer des préjugés injustes; est construit et testé pour la sécurité; est responsable devant les gens; incorpore les principes de conception de la vie privée; maintient des normes élevées d’excellence scientifique; et est mis à disposition pour des utilisations en accord avec ces des principes. Le PDG de Google, Sundar Pichai, a déclaré dans un billet de blog que ces principes marquent la reconnaissance par l’entreprise du fait qu’une technologie aussi puissante soulève des questions tout aussi importantes sur son utilisation. « La manière dont l’IA est développée et utilisée aura un impact significatif sur la société pendant de nombreuses années. En tant que leader de l’IA, nous nous sentons profondément responsables de bien faire les choses », a-t-il déclaré, assurant que les principes ne sont pas « des concepts théoriques; sont des normes concrètes qui régiront activement nos travaux de recherche et de développement de produits et auront une incidence sur nos décisions commerciales « . La société a expliqué comment appliquer ces principes par le biais d’une formation interne, de la création d’outils, de la recherche sur des sujets liés à l’IA responsable, de la révision de ses processus, expert seo ainsi que de la collaboration avec des partenaires externes. les parties prenantes. En outre, le géant mondial de la technologie a annoncé la création d’un conseil consultatif externe pour le développement responsable de l’IA. La composition du Conseil consultatif externe sur les technologies de pointe comprenait un mélange de femmes et d’hommes de diverses origines et de différents groupes d’âge. Toutefois, quelques semaines seulement après sa création, Google a dissous le groupe, après que des milliers de travailleurs de Google eurent signé une pétition pour protester contre la nomination d’un membre « anti-trans, SEO Lille anti-LGBTQ et anti-immigrés ».

« Nous mettons fin au conseil et nous retournons à la table à dessin », a déclaré Google. « Nous continuerons d’être responsables de notre travail sur les questions importantes soulevées par l’intelligence artificielle et trouverons différents moyens d’obtenir des opinions extérieures sur ces sujets. » Mais Google n’est pas seul. Microsoft a son propre ensemble de principes sur l’IA et Facebook a cofondé un centre de recherche sur l’éthique de l’IA en Allemagne. « Si nous ne réglementons pas, par exemple, pour nous assurer que X% des taxis accessibles en fauteuil roulant ne le seraient pas. Uber ne fournira pas de voiture aux personnes handicapées, à moins que ce ne soit réglementé », a-t-il déclaré. Ce processus de réglementation de l’IA en Australie a commencé. Data61 a publié un document de discussion sur les problèmes clés soulevés par l’IA à grande échelle, cherchant des réponses à quelques questions qui devraient éclairer la démarche du gouvernement australien en matière d’éthique de l’IA. À l’époque, Michael Keenan, alors ministre des Services à la personne et de la Transformation numérique, avait déclaré que le gouvernement utiliserait les conclusions du document et les commentaires reçus pendant la période de consultation pour élaborer un cadre national d’éthique de l’IA. Il est prévu que le Ce cadre comprendra un ensemble de principes et de mesures pratiques que les organisations et les individus peuvent utiliser comme guide pour s’assurer que leur conception, leur développement et leur utilisation de l’IA répondent aux attentes de la communauté. Lazar a déclaré que les législateurs apporteraient de la cohésion au débat sur l’éthique d’Amnesty International en Australie. « Il serait bon de ne pas laisser cela aux individus ou aux entreprises.… Je pense qu’il est utile de reconnaître qu’au sein de chaque entreprise de technologie, il y a des gens qui prennent ces questions très au sérieux et font un travail superbe pour le faire de manière éthique », at-il déclaré. m’a dit. « Mais dans ces entreprises, de nombreuses personnes considèrent qu’il s’agit d’une mesure importante du profit, mais elles se comporteront évidemment de la même manière et c’est un sujet de préoccupation, raison pour laquelle la législation est cruciale. »