Étiquette : ethics

« Tuer gentiment sa femme, c’est bien » : les biais racistes et sexistes de Ask Delphi rappellent les limites de l’IA

“Pour essayer d’affiner son esprit critique, Delphi a donc passé de longs moments à scruter le web, et notamment les questions posées sur les pages Reddit r/AmITheAsshole (que l’on traduirait par « suis-je un trou du cul ? ») et r/Confessions, ou les redditeurs se livrent leurs secrets les moins avouables. Ces situations ont ensuite été soumises aux jugements de sous-traitants, employés grâce à l’Amazon Mechanical Turk, l’outil de microtâche à bas prix mis à disposition par Amazon. De ce processus est sorti une sorte de « guide moral » appelé Commonsense Norm Bank. Cette base de données « compile 1,7 million d’exemples de jugements éthiques de personnes, sur un large éventail de situations quotidiennes. »”

Source : « Tuer gentiment sa femme, c’est bien » : les biais racistes et sexistes de Ask Delphi rappellent les limites de l’IA

Au nom de l’éthique Google, IBM et Microsoft, ont renoncé à des projets IA

cerveau en circuit imprimé sur fond de planète terre

“Google, Microsoft et IBM mettent en avant ces différents cas pour rassurer le grand public et les autorités face à une technologie qui a connu ses casseroles. Entre les possibilités de surveillance de masse ouvertes par la reconnaissance faciale, les biais d’IA racistes, il n’est plus utile de mobiliser la science-fiction pour s’interroger sur l’IA.Les entreprises technologiques l’ont rapidement compris, Microsoft a ouvert son Comité éthique en 2017, Google et IBM en 2018. Insuffisant pour les associations de défenses des droits. Selon Jascha Galaski, chargé de plaidoyer pour l’Union des libertés civiles pour l’Europe, les comités éthiques manquent encore d’indépendance et de transparence. Il estime « utopique » qu’ils finissent par le devenir d’eux-mêmes.”

Source : Au nom de l’éthique Google, IBM et Microsoft, ont renoncé à des projets IA

LaMDA: our breakthrough conversation technology

An animation demonstrating how language is processed by LaMDA technology.

“These early results are encouraging, and we look forward to sharing more soon, but sensibleness and specificity aren’t the only qualities we’re looking for in models like LaMDA. We’re also exploring dimensions like “interestingness,” by assessing whether responses are insightful, unexpected or witty. Being Google, we also care a lot about factuality (that is, whether LaMDA sticks to facts, something language models often struggle with), and are investigating ways to ensure LaMDA’s responses aren’t just compelling but correct. But the most important question we ask ourselves when it comes to our technologies is whether they adhere to our AI Principles. Language might be one of humanity’s greatest tools, but like all tools it can be misused. Models trained on language can propagate that misuse — for instance, by internalizing biases, mirroring hateful speech, or replicating misleading information. And even when the language it’s trained on is carefully vetted, the model itself can still be put to ill use.  ”

Source : LaMDA: our breakthrough conversation technology

“On Monday, researchers will tell the world’s largest annual meeting of neuroscientists that some scientists working on organoids are “perilously close” to crossing the ethical line, while others may already have done so by creating sentient lumps of brain in the lab. “If there’s even a possibility of the organoid being sentient, we could be crossing that line,” said Elan Ohayon, the director of the Green Neuroscience Laboratory in San Diego, California. “We don’t want people doing research where there is potential for something to suffer.””

Source : Scientists ‘may have crossed ethical line’ in growing human brains | Science | The Guardian

Le choix des Français ? Vraiment ?

“The Moral Machine Experiment, une étude réalisée par des chercheurs du MIT, a compilé les choix moraux de 2,3 millions de participants issus de 233 pays et territoires. Elle révèle qu’il n’y a pas vraiment de code moral universel, et que la France se distingue souvent de ses voisins.”

Source : Une voiture autonome doit-elle épargner l’enfant ou la personne âgée ? Découvrez le choix des Français – Tech – Numerama

«Dans les playlists de Spotify, plus de R. Kelly ni de XXXTentacion. Si les chansons des deux artistes restent disponibles sur la plateforme d’écoute de musique en ligne, elles n’y sont plus mises en avant dans les sélections – des listes générées automatiquement en fonction des goûts des utilisateurs, ou créées par thématique. Une décision liée aux accusations qui pèsent sur les chanteurs, soupçonnés de violences sexuelles pour le premier, et de violences conjugales pour le second».
« Pour la première fois, Spotify a fait un aveu. Elle a reconnu qu’elle avait un statut de média, et non pas d’hébergeur. Elle ne se contentera plus seulement de réagir aux musiques ou artistes problématiques qui lui sont signalés. Désormais, elle va agir en amont, éditorialiser ses contenus, remplacer la loi par la morale » – Sophian Fanen.

Source : Spotify va pénaliser les artistes aux comportements jugés problématiques

«Convoquer des spéculations sur des formes d’IA qui n’existent pas encore et n’existeront probablement jamais, pour terrifier et mobiliser les foules relève plus de la religion que de la science. Ces invitations à embrasser une forme de futur inévitable qu’on martèle pour se persuader qu’il va advenir me cassent les pieds» – Hubert Guillaud.

Source : L’avenir de l’intelligence artificielle est-il… inévitable ? (2/2) : du réductionnisme à l’éthique de l’intelligence | InternetActu.net

© 2021 no-Flux

Theme by Anders NorenUp ↑