Étiquette : artificial intelligence (Page 1 of 14)

“As long as there’s been popular music, musicians and crews have struggled with mental health at a rate far exceeding the general adult population. And this issue hasn’t just been ignored. It’s been romanticized, by things like the 27 Club—a group of musicians whose lives were all lost at just 27 years old. To show the world what’s been lost to this mental health crisis, we’ve used artificial intelligence to create the album the 27 Club never had the chance to. Through this album, we’re encouraging more music industry insiders to get the mental health support they need, so they can continue making the music we all love for years to come. Because even AI will never replace the real thing.”

Source : Lost Tapes of the 27 Club

Facebook has been autogenerating pages for white supremacists

Facebook CEO Mark Zuckerberg testifying before Congress in April 2018. It wasn't his only appearance in DC this decade.

“A total of 113 white supremacist organizations and groups had a presence on Facebook, sometimes more than one. One user-generated page that has been active for over a decade had 42,000 likes. Ten other pages and one group had more than 1,000 likes each.Much of Facebook’s moderation system relies on artificial intelligence to flag potential violations for human moderators, a system that appears to be easily thwarted. Simple misspellings of words—whether by adding vowels or using $ in place of S, for example—have been enough to foil algorithmic moderation.”

Source : Facebook has been autogenerating pages for white supremacists | Ars Technica

Capture d'écran du film The Social Dilemma

“Quand les universitaires s’engagent dans la critique, ils donnent plus d’autorité à ces récits. Quand McKinsey estime que 60 % des professions auront 1/3 de leurs activités automatisées par l’IA, la firme de consulting vend son baratin, la peur qui va avec et tente de faire croire aux dirigeants d’entreprises que leur environnement va radicalement se transformer. Quand l’AI Now Institute cite ce rapport comme une source crédible et affirme que les décideurs politiques devraient le prendre au sérieux et investir de l’argent pour mieux comprendre les problèmes que cela pourrait générer, cela pose un problème, car cette source n’est pas crédible. Au final, l’AI Now Institute rend ces élucubrations plus crédibles qu’elles ne le sont !, affirme Vinsel.”

Source : L’illusion de l’innovation… et l’illusion de sa critique | InternetActu.net

Open AI - Jukebox

“We’re introducing Jukebox, a neural net that generates music, including rudimentary singing, as raw audio in a variety of genres and artist styles. We’re releasing the model weights and code, along with a tool to explore the generated samples.”

Source : Jukebox

Project Nightingale

“Neither patients nor doctors have been notified. At least 150 Google employees already have access to much of the data on tens of millions of patients, according to a person familiar with the matter and the documents. In a news release issued after The Wall Street Journal reported on Project Nightingale on Monday, the companies said the initiative is compliant with federal health law and includes robust protections for patient data. Some Ascension employees have raised questions about the way the data is being collected and shared, both from a technological and ethical perspective, according to the people familiar with the project. But privacy experts said it appeared to be permissible under federal law. That law, the Health Insurance Portability and Accountability Act of 1996, generally allows hospitals to share data with business partners without telling patients, as long as the information is used “only to help the covered entity carry out its health care functions.””

Source : Google’s ‘Project Nightingale’ Gathers Personal Health Data on Millions of Americans – WSJ

0602095339508_web_tete.jpg

“Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite. […]
Facebook est une entreprise qui n’est pas agressive au niveau commercial ou concurrentiel. C’est une entreprise qui donne l’impression de travailler comme pour une grande famille, les gens qui sont à la direction sont à la fois intelligents et sympathiques. Ils essaient de faire les choses correctement, mais il y a des erreurs dues au fait qu’aucun service de ce type n’existait auparavant, et aussi au fait que des individus, des partenaires ou des gouvernements ont pu abuser de notre confiance.”

Source : Yann Le Cun : « Les machines vont arriver à une intelligence de niveau humain » | Les Echos

“On a tous les deux grandi en lisant beaucoup de science-fiction, donc l’idée que la technologie est là pour nous aider plutôt que pour nous faire du mal fait partie de nos histoires à chacun. Mais on admettait que si les gens qui designent ces applis entendent faire de leur mieux, par contre, ils ne connaissent pas grand chose du comportement humain. Ce qui n’est de la faute de personne : si vous voulez apprendre à faire des logiciels, vous devenez ingénieur, si vous voulez apprendre sur le comportement humain, vous faites des sciences comportementales. On s’est donc demandé ce qu’on pouvait faire pour que ces applis soient plus persuasives, et pour y injecter nos connaissances. Que se passe-t-il dans nos têtes ? Pourquoi certaines addictions se forment et d’autres non ? On voyait que les gens voulaient utiliser ces applis, grandir, changer, être une meilleure version d’eux-mêmes, on voulait permettre ce succès, et notre petite contribution était de rendre ces applis plus puissantes.”

Source : « Le recours aux techonologies de la persuasion ne va faire qu’augmenter »

“AI Now co-founders Kate Crawford and Meredith Whittaker opened the Symposium with a short talk summarizing some key moments of opposition over the year, focusing on five themes: (1) facial and affect recognition; (2) the movement from “AI bias” to justice; (3) cities, surveillance, borders; (4) labor, worker organizing, and AI, and; (5) AI’s climate impact. Below is an excerpt from their talk.”

Source : AI in 2019: A Year in Review – AI Now Institute – Medium

 

« En élargissant les jeux de données, nous risquons surtout de rendre les populations les plus fragiles plus faciles à contrôler et à surveiller ! « Une surveillance égalitaire n’est pas l’égalité ! » Au contraire ! Le risque est de développer des atteintes encore plus disproportionnées qu’elles ne sont aux groupes les plus minoritaires et les plus fragiles ! Ces systèmes sont « dangereux quand ils échouent, nocifs quand ils fonctionnent ». « Améliorer un système injuste ne peut que créer un plus grand préjudice » ».

Source : Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir » | InternetActu.net

« Older posts

© 2021 no-Flux

Theme by Anders NorenUp ↑