Étiquette : algorithmic governance (Page 1 of 2)

« Flicage managérial » : Microsoft rétropédale sur le score de productivité dans Microsoft 365

“Ce score de productivité est calculé sur 800 points, avec 100 points par catégorie. Ces rubriques incluent la communication, les réunions, la collaboration sur le contenu, le travail d’équipe ou encore la mobilité. Pour établir ce score, l’outil prend en compte des données issues de ses logiciels figurant dans la suite bureautique, mais aussi d’autres programmes, comme Skype, OneDrive ou bien Teams. Microsoft fournit dans sa documentation une page consacrée à ce score de productivité, qui détaille son mode de calcul, la liste des applications sur lesquelles il s’appuie, la façon dont il faut interpréter les résultats, les conditions de sa mise en œuvre et son périmètre. Ce score de productivité avait été annoncé en novembre 2019, mais sa généralisation n’a lieu que plus tardivement, à la fin octobre 2020.”

Source : « Flicage managérial » : Microsoft rétropédale sur le score de productivité dans Microsoft 365

Vue d’artiste de la future « Google City » à Toronto (Ontario, Canada).

“Pour relier le futur quartier au centre-ville, la société engage la collectivité à créer une nouvelle ligne de métro léger et propose, magnanime, de lui prêter les fonds. Enfin, estimant qu’on ne peut pas innover dans les vieux cadres réglementaires, Sidewalk Labs suggère qu’on le laisse créer cinq organes de gouvernance ad hoc pour gérer les transports, l’urbanisme, les déchets, etc., en lieu et place des autorités municipales existantes. « Cela reviendrait à créer une zone économique spéciale, avec une privatisation de la gouvernance : c’est un accaparement du pouvoir, doublé d’un accaparement de terres et d’un accaparement de données », fulmine Thorben Wieditz.”

Source : A Toronto, « Google City » à quitte ou double

 

« En élargissant les jeux de données, nous risquons surtout de rendre les populations les plus fragiles plus faciles à contrôler et à surveiller ! « Une surveillance égalitaire n’est pas l’égalité ! » Au contraire ! Le risque est de développer des atteintes encore plus disproportionnées qu’elles ne sont aux groupes les plus minoritaires et les plus fragiles ! Ces systèmes sont « dangereux quand ils échouent, nocifs quand ils fonctionnent ». « Améliorer un système injuste ne peut que créer un plus grand préjudice » ».

Source : Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir » | InternetActu.net

Le gendarme de la vie privée réclame des « garanties » au projet de surveillance des réseaux sociaux.

“Le texte de loi ouvre la porte à des procédures d’intelligence artificielle dite « auto-apprenante », ce qui « soulève des enjeux particuliers en matière de protection des données ». En effet, ce type de mécanisme imposerait de collecter de nombreuses données pour déterminer ce qui est un comportement normal aux yeux de l’administration fiscale, afin de pouvoir détecter le comportement suspect. Il conduirait donc à l’aspiration de nombreuses données inutiles d’internautes n’ayant rien à se reprocher.”

Source : La CNIL pas du tout convaincue par le projet de surveiller les réseaux sociaux pour détecter la fraude fiscale

Algorithms and their unintended consequences for the poor 1

“I think we have a tendency to think about these tools as sort of naturally creating these efficiencies because the speed of the technology is such that it creates the appearance of faster and easier. But in fact, you really have to know a lot about how these systems work in order to build good tools for them and to interrupt the patterns of inequity that we’re already seeing.”

Source : Algorithms and their unintended consequences for the poor – Harvard Law Today

Cathy O'Neil

“Les ADM se nourrissent les unes les autres. Les gens pauvres ont tendance à présenter un mauvais score de crédit et à vivre dans des quartiers à forte criminalité, entourés d’autres individus pauvres. Une fois ces données digérées, le sordide univers des ADM les bombarde de publicités prédatrices pour des prêts hypothécaires de type subprime ou des écoles à but lucratif. Il déploie plus de policiers pour les arrêter et, lorsqu’ils sont condamnés, leur inflige des peines de prisons plus longues…” – Cathy O’Neil

Source : « Algorithmes, la bombe à retardement » : un cri d’alarme citoyen

Facebook Fake Accounts

“These numbers are largely affected by external factors, such as cyberattacks that increase fake accounts on Facebook. Bad actors try to create fake accounts in large volumes automatically using scripts or bots, with the intent of spreading spam or conducting illicit activities such as scams. The numbers can also be affected by internal factors, including the effectiveness of our detection technology. In Q2 2018, we disabled 800 million fake accounts, up from 583 million in Q1 2018. In Q3 2018, we disabled 754 million fake accounts, a modest decrease from the previous quarter. Most of these accounts originated from commercially motivated spam attacks, and they were removed swiftly. ”

Source : Community Standards Enforcement

« Older posts

© 2024 no-Flux

Theme by Anders NorenUp ↑