Étiquette : artificial intelligence (Page 5 of 20)

Pause Giant AI Experiments: An Open Letter

“Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system’s potential effects. OpenAI’s recent statement regarding artificial general intelligence, states that « At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models. » We agree. That point is now.

Source : Pause Giant AI Experiments: An Open Letter – Future of Life Institute

Tech guru Jaron Lanier: ‘The danger isn’t that AI destroys us. It’s that it drives us insane’ | Jaron Lanier

“That’s all well and good, but what about AI replacing us in the workplace? We already have the prospect of chatbots writing articles like this one. Again, he says it’s not the technology that replaces us, it’s how we use it. “There are two ways this could go. One is that we pretend the bot is a real thing, a real entity like a person, then in order to keep that fantasy going we’re careful to forget whatever source texts were used to have the bot function. Journalism would be harmed by that. The other way is you do keep track of where the sources came from. And in that case a very different world could unfold where if a bot relied on your reporting, you get payment for it, and there is a shared sense of responsibility and liability where everything works better. The term for that is data dignity.””

Source : Tech guru Jaron Lanier: ‘The danger isn’t that AI destroys us. It’s that it drives us insane’ | Jaron Lanier | The Guardian

GPT-4

“We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.”

Source : GPT-4

L’Union européenne cherche à réguler l’intelligence artificielle, à l’heure de ChatGPT

“ Les systèmes de « notation sociale » à la chinoise devrait être interdits L’AI Act a donc été construit sur une approche « par les risques » : l’intelligence artificielle y est régulée en fonction de ses usages, jugés plus ou moins dangereux. Ainsi, quelques-uns devraient être interdits : les systèmes de « notation sociale » à la chinoise, les « techniques subliminales » visant à manipuler les citoyens, les logiciels « qui exploitent les vulnérabilités dues à l’âge, au handicap ou à la situation sociale », et aussi la vidéosurveillance permettant « l’identification biométrique des personnes en temps réel dans l’espace public », sauf pour les forces de l’ordre dans le cadre d’enquêtes ou de lutte contre le terrorisme.
D’autres usages sont classés « à haut risque » : dans le transport (conduite autonome de véhicules…), l’éducation et les ressources humaines (notation d’examens, tri de CV…), la santé (chirurgie assistée par robot), les services (obtention de crédit), la justice (évaluation de preuves)… Le texte impose alors des obligations : vérifier la « qualité » des données utilisées pour entraîner les logiciels, « minimiser les risques et les résultats discriminatoires », assurer un faible taux d’erreur… Il faut également prévenir les utilisateurs qu’ils interagissent avec une machine.”

Source : L’Union européenne cherche à réguler l’intelligence artificielle, à l’heure de ChatGPT

Google AI updates: Bard and new AI features in Search

Abstract shapes in Google's four colors on a gray background

“We’ve been working on an experimental conversational AI service, powered by LaMDA, that we’re calling Bard. And today, we’re taking another step forward by opening it up to trusted testers ahead of making it more widely available to the public in the coming weeks.Bard seeks to combine the breadth of the world’s knowledge with the power, intelligence and creativity of our large language models. It draws on information from the web to provide fresh, high-quality responses. Bard can be an outlet for creativity, and a launchpad for curiosity, helping you to explain new discoveries from NASA’s James Webb Space Telescope to a 9-year-old, or learn more about the best strikers in football right now, and then get drills to build your skills.”

Source : Google AI updates: Bard and new AI features in Search

Quand l’intelligence artificielle permet d’identifier l’origine inconnue d’un cancer métastasé

“Obtenir le profil d’ARN de la tumeur prend une semaine. Le traitement informatique dure, lui, quelques minutes. Résultat, le jeune homme présente un cancer du rein « avec 95 % de certitude selon le logiciel », précise-t-elle. Ce patient sera donc traité spécifiquement pour le rein, un protocole sans chimiothérapie, car cet organe y est peu réceptif.Janvier 2023. Celui que le laboratoire appelle désormais le « premier patient » ne présente plus aucune maladie. Le recours à l’IA permet d’obtenir « des informations qu’on est incapable d’extraire à l’échelle d’un cerveau humain, reconnaît Sarah Watson. On a environ 25 000 gènes actifs dans chaque tumeur. Cet outil permet de changer de dimension – on va passer de 25 000 à, par exemple, 100 dimensions discriminantes –, et aussi d’obtenir de l’information intelligible. » Elle poursuit : « On peut aller regarder dans chacune de ces 100 dimensions pour affiner les possibilités de traitement. »”

Source : Quand l’intelligence artificielle permet d’identifier l’origine inconnue d’un cancer métastasé

A Roomba recorded a woman on the toilet. How did screenshots end up on Facebook?

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2022/12/C3_0001_TR-vacuum-03.png.png?w=676&ssl=1

“In one particularly revealing shot, a young woman in a lavender T-shirt sits on the toilet, her shorts pulled down to mid-thigh. The images were not taken by a person, but by development versions of iRobot’s Roomba J7 series robot vacuum. They were then sent to Scale AI, a startup that contracts workers around the world to label audio, photo, and video data used to train artificial intelligence.  They were the sorts of scenes that internet-connected devices regularly capture and send back to the cloud—though usually with stricter storage and access controls.”

Source : A Roomba recorded a woman on the toilet. How did screenshots end up on Facebook? | MIT Technology Review

“There have been several AI breakthroughs to-date, including AI agents that have mastered arcade games, complex strategy games such as chess, shogi and Go as well as other real-time, multiplayer strategy games. GT Sophy takes game AI to the next level, tackling the challenge of a hyper-realistic simulator by mastering real-time control of vehicles with complex dynamics, all while operating within inches of opponents.”

Source : PROJECT | Gran Turismo Sophy

Twitter assume n’avoir quasiment pas de modérateurs humains

https://i0.wp.com/c0.lestechnophiles.com/www.numerama.com/wp-content/uploads/2021/08/logo-twitter1-1024x576.jpg?resize=676%2C380&ssl=1

“Twitter a 300 millions d’utilisateurs et utilisatrices actives par mois, pour seulement 1 867 modérateurs dans le monde. Cette disproportion a été révélée par BFM TV, qui s’est procuré les chiffres que la plateforme a elle-même communiqués au CSA (Conseil supérieur de l’audiovisuel) en septembre dernier. « Nous avons récemment doublé le nombre de personnes chargées de faire respecter nos règles. Chez Twitter, 1 867 personnes se consacrent exclusivement à l’application de nos politiques et à la modération des contenus. Ce chiffre représente plus d’un tiers de l’ensemble de nos effectifs mondiaux », peut-on lire.”
“L’une des raisons invoquées en filigrane est la dureté des images et contenus auxquelles les modérateurs et modératrices sont exposées : il serait plus « humain » selon Twitter de ne pas leur infliger ce travail. Sur ce point, il serait difficile de contredire la plateforme, tant les enquêtes et reportages médiatiques ont montré, depuis des années, la dureté du métier de modérateur en ligne, des « petites mains » invisibles du web qui sont exposées en première ligne au pire de la violence humaine”.

Source : Twitter assume n’avoir quasiment pas de modérateurs humains – Numerama

Facebook AI moderator confused videos of mass shootings and car washes | Ars Technica

A frowning man in a business suit.

“Facebook’s internal documents reveal just how far its AI moderation tools are from identifying what human moderators were easily catching. Cockfights, for example, were mistakenly flagged by the AI as a car crash. “These are clearly cockfighting videos,” the report said. In another instance, videos livestreamed by perpetrators of mass shootings were labeled by AI tools as paintball games or a trip through a carwash. If the situation sounds grim in the US or among English-speaking countries, it appears far worse elsewhere. In Afghanistan, for example, the company said in reports that it lacks a dictionary of slurs in the country’s various languages. As a result, Facebook estimates that it identified just 0.23 percent of hate speech posted on the platform in Afghanistan.”

Source : Facebook AI moderator confused videos of mass shootings and car washes | Ars Technica

« Older posts Newer posts »

© 2024 no-Flux

Theme by Anders NorenUp ↑