Étiquette : responsability

Responsible AI at Google Research: Context in AI Research (CAIR)

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2023/11/CAIR.png?w=676&ssl=1

« Artificial intelligence (AI) and related machine learning (ML) technologies are increasingly influential in the world around us, making it imperative that we consider the potential impacts on society and individuals in all aspects of the technology that we create. To these ends, the Context in AI Research (CAIR) team develops novel AI methods in the context of the entire AI pipeline: from data to end-user feedback. The pipeline for building an AI system typically starts with data collection, followed by designing a model to run on that data, deployment of the model in the real world, and lastly, compiling and incorporation of human feedback ».

Source : Responsible AI at Google Research: Context in AI Research (CAIR)

«Dans les playlists de Spotify, plus de R. Kelly ni de XXXTentacion. Si les chansons des deux artistes restent disponibles sur la plateforme d’écoute de musique en ligne, elles n’y sont plus mises en avant dans les sélections – des listes générées automatiquement en fonction des goûts des utilisateurs, ou créées par thématique. Une décision liée aux accusations qui pèsent sur les chanteurs, soupçonnés de violences sexuelles pour le premier, et de violences conjugales pour le second».
« Pour la première fois, Spotify a fait un aveu. Elle a reconnu qu’elle avait un statut de média, et non pas d’hébergeur. Elle ne se contentera plus seulement de réagir aux musiques ou artistes problématiques qui lui sont signalés. Désormais, elle va agir en amont, éditorialiser ses contenus, remplacer la loi par la morale » – Sophian Fanen.

Source : Spotify va pénaliser les artistes aux comportements jugés problématiques

«Software designers face a basic tradeoff here. If the software is programmed to be too cautious, the ride will be slow and jerky, as the car constantly slows down for objects that pose no threat to the car or aren’t there at all. Tuning the software in the opposite direction will produce a smooth ride most of the time—but at the risk that the software will occasionally ignore a real object. According to Efrati, that’s what happened in Tempe in March—and unfortunately the « real object » was a human being».

Source : Report: Software bug led to death in Uber’s self-driving crash | Ars Technica

«Afficher des extraits de pages Wikipédia ne réglera sans doute pas ces enjeux plus larges. D’autant plus que ces « signaux d’information » (information cues) ne concernent pas ce que la plupart des experts considèrent être la source du problème : l’algorithme de recommandation. Ce dernier permet de suggérer à l’internaute des vidéos qu’il estime similaires à celle qu’il est en train de consulter et donc susceptibles de l’intéresser.Plusieurs experts, dont un ancien ingénieur de YouTube, estiment que l’objectif principal est de faire en sorte que les utilisateurs visionnent des vidéos le plus longtemps possible. Ce système favoriserait ainsi les vidéos les plus accrocheuses, notamment celles… sur les théories du complot et les fausses informations».

Source : Pour combattre le complotisme, YouTube fait appel à Wikipédia

© 2024 no-Flux

Theme by Anders NorenUp ↑