Étiquette : ethics

A Saclay, le master qui forme l’élite des spécialistes en intelligence artificielle

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2023/02/90ba057_1652453099544-coutroutsios-saclay-violet-web.jpg?w=676&ssl=1

“« C’est très difficile de lutter pour les garder dans un environnement académique. L’un de mes doctorants a fait un stage d’été chez Tesla, qui lui a fait une offre avant qu’il ne termine sa thèse », explique-t-il. L’étudiant a décliné mais Tesla est revenu le chercher, une fois son doctorat achevé, en surenchérissant son offre d’embauche, qui avoisinait les 500 000 euros annuels sans les stock-options. Matthieu Cord peut s’amuser à faire la liste de ses thésards partis vers Deepmind, Facebook et Apple surtout : « Les meilleurs partent rapidement en sortie de thèse, ceux qui commencent à publier sont très vite dans les radars des géants du numérique et, après, c’est terminé, on ne les garde plus. » Une fois les jeunes diplômés « absorbés », les liens sont distendus, d’autant que certaines sociétés imposent une forme de loi du silence aux chercheurs et aux salariés.
Certains étudiants du MVA de la promo 2022 s’interrogent désormais aussi sur leur « responsabilité » et leur « rôle sociétal » dans la conception des algorithmes. Un cours de machine learning responsable a été créé à la rentrée 2021 pour répondre à cette aspiration, 60 étudiants avaient manifesté leur intérêt pour une trentaine de places ouvertes. Mathis Clautier refuse de mettre son intelligence au service d’une robotique destinée à la guerre. Il n’est pas sans savoir que Boston Dynamics, une start-up de robotique médiatisée grâce à ses robots humanoïdes, ayant appartenu à Google de 2013 à 2017, avait collaboré avec le programme de recherche de la défense américaine et que l’un de ses robots quadrupèdes « Spot » a fait ses débuts avec l’armée française, en 2021.”

Source : A Saclay, le master qui forme l’élite des spécialistes en intelligence artificielle

« Tuer gentiment sa femme, c’est bien » : les biais racistes et sexistes de Ask Delphi rappellent les limites de l’IA

“Pour essayer d’affiner son esprit critique, Delphi a donc passé de longs moments à scruter le web, et notamment les questions posées sur les pages Reddit r/AmITheAsshole (que l’on traduirait par « suis-je un trou du cul ? ») et r/Confessions, ou les redditeurs se livrent leurs secrets les moins avouables. Ces situations ont ensuite été soumises aux jugements de sous-traitants, employés grâce à l’Amazon Mechanical Turk, l’outil de microtâche à bas prix mis à disposition par Amazon. De ce processus est sorti une sorte de « guide moral » appelé Commonsense Norm Bank. Cette base de données « compile 1,7 million d’exemples de jugements éthiques de personnes, sur un large éventail de situations quotidiennes. »”

Source : « Tuer gentiment sa femme, c’est bien » : les biais racistes et sexistes de Ask Delphi rappellent les limites de l’IA

Au nom de l’éthique Google, IBM et Microsoft, ont renoncé à des projets IA

cerveau en circuit imprimé sur fond de planète terre

“Google, Microsoft et IBM mettent en avant ces différents cas pour rassurer le grand public et les autorités face à une technologie qui a connu ses casseroles. Entre les possibilités de surveillance de masse ouvertes par la reconnaissance faciale, les biais d’IA racistes, il n’est plus utile de mobiliser la science-fiction pour s’interroger sur l’IA.Les entreprises technologiques l’ont rapidement compris, Microsoft a ouvert son Comité éthique en 2017, Google et IBM en 2018. Insuffisant pour les associations de défenses des droits. Selon Jascha Galaski, chargé de plaidoyer pour l’Union des libertés civiles pour l’Europe, les comités éthiques manquent encore d’indépendance et de transparence. Il estime « utopique » qu’ils finissent par le devenir d’eux-mêmes.”

Source : Au nom de l’éthique Google, IBM et Microsoft, ont renoncé à des projets IA

LaMDA: our breakthrough conversation technology

An animation demonstrating how language is processed by LaMDA technology.

“These early results are encouraging, and we look forward to sharing more soon, but sensibleness and specificity aren’t the only qualities we’re looking for in models like LaMDA. We’re also exploring dimensions like “interestingness,” by assessing whether responses are insightful, unexpected or witty. Being Google, we also care a lot about factuality (that is, whether LaMDA sticks to facts, something language models often struggle with), and are investigating ways to ensure LaMDA’s responses aren’t just compelling but correct. But the most important question we ask ourselves when it comes to our technologies is whether they adhere to our AI Principles. Language might be one of humanity’s greatest tools, but like all tools it can be misused. Models trained on language can propagate that misuse — for instance, by internalizing biases, mirroring hateful speech, or replicating misleading information. And even when the language it’s trained on is carefully vetted, the model itself can still be put to ill use.  ”

Source : LaMDA: our breakthrough conversation technology

“On Monday, researchers will tell the world’s largest annual meeting of neuroscientists that some scientists working on organoids are “perilously close” to crossing the ethical line, while others may already have done so by creating sentient lumps of brain in the lab. “If there’s even a possibility of the organoid being sentient, we could be crossing that line,” said Elan Ohayon, the director of the Green Neuroscience Laboratory in San Diego, California. “We don’t want people doing research where there is potential for something to suffer.””

Source : Scientists ‘may have crossed ethical line’ in growing human brains | Science | The Guardian

Le choix des Français ? Vraiment ?

“The Moral Machine Experiment, une étude réalisée par des chercheurs du MIT, a compilé les choix moraux de 2,3 millions de participants issus de 233 pays et territoires. Elle révèle qu’il n’y a pas vraiment de code moral universel, et que la France se distingue souvent de ses voisins.”

Source : Une voiture autonome doit-elle épargner l’enfant ou la personne âgée ? Découvrez le choix des Français – Tech – Numerama

«Dans les playlists de Spotify, plus de R. Kelly ni de XXXTentacion. Si les chansons des deux artistes restent disponibles sur la plateforme d’écoute de musique en ligne, elles n’y sont plus mises en avant dans les sélections – des listes générées automatiquement en fonction des goûts des utilisateurs, ou créées par thématique. Une décision liée aux accusations qui pèsent sur les chanteurs, soupçonnés de violences sexuelles pour le premier, et de violences conjugales pour le second».
« Pour la première fois, Spotify a fait un aveu. Elle a reconnu qu’elle avait un statut de média, et non pas d’hébergeur. Elle ne se contentera plus seulement de réagir aux musiques ou artistes problématiques qui lui sont signalés. Désormais, elle va agir en amont, éditorialiser ses contenus, remplacer la loi par la morale » – Sophian Fanen.

Source : Spotify va pénaliser les artistes aux comportements jugés problématiques

«Convoquer des spéculations sur des formes d’IA qui n’existent pas encore et n’existeront probablement jamais, pour terrifier et mobiliser les foules relève plus de la religion que de la science. Ces invitations à embrasser une forme de futur inévitable qu’on martèle pour se persuader qu’il va advenir me cassent les pieds» – Hubert Guillaud.

Source : L’avenir de l’intelligence artificielle est-il… inévitable ? (2/2) : du réductionnisme à l’éthique de l’intelligence | InternetActu.net

© 2024 no-Flux

Theme by Anders NorenUp ↑