Étiquette : algorithms (Page 4 of 12)

“Un journal local texan, The Liberty County Vindicator, a publié sur sa page Facebook différents extraits de la déclaration d’indépendance américaine, les jours précédant la fête nationale américaine du mercredi 4 juillet. L’un de ces extraits, le dixième publié, a été supprimé par Facebook, qui a signalé au journal qu’il violait le règlement du réseau social : le contenu a été identifié comme discours de haine. L’extrait en question est depuis longtemps objet de discussions. Il y est notamment question des « Indiens, ces sauvages sans pitié, dont la manière bien connue de faire la guerre est de tout massacrer, sans distinction d’âge, de sexe ni de condition »”.

Source : Un extrait de la déclaration d’indépendance américaine supprimé par erreur par Facebook

Twitter va exiger des nouveaux inscrits qu’ils fournissent une adresse e-mail ou un numéro de téléphone valide.

“Selon la plate-forme, qui a testé en amont le procédé, cela permettrait d’empêcher la création de plus de 50 000 comptes par jour. Si un compte déjà créé est suspecté par Twitter d’être un « bot » malveillant après sa création, la plate-forme pourra également demander à son propriétaire un numéro de téléphone ou une adresse e-mail. Tant qu’il n’aura pas fourni ces éléments, le compte sera en quelque sorte invisibilisé. S’il est abonné à un autre utilisateur, il ne sera pas pris en compte dans le nombre d’abonnés de ce dernier. S’il a retweeté l’un de ses messages, même chose : le retweet ne sera pas comptabilisé. Pour Twitter, cela permettrait d’empêcher que des « bots » se suivent entre eux, faisant ainsi gonfler de manière artificielle leur nombre d’abonnés pour « booster leur crédibilité »”.

Source : Twitter veut rendre la création de « bots » malveillants plus complexe

“Three main factors determine what you see in your Instagram feed:

  • Interest: How much Instagram predicts you’ll care about a post, with higher ranking for what matters to you, determined by past behavior on similar content and potentially machine vision analyzing the actual content of the post.
  • Recency: How recently the post was shared, with prioritization for timely posts over weeks-old ones.
  • Relationship: How close you are to the person who shared it, with higher ranking for people you’ve interacted with a lot in the past on Instagram, such as by commenting on their posts or being tagged together in photos.

Beyond those core factors, three additional signals that influence rankings are:

  • Frequency: How often you open Instagram, as it will try to show you the best posts since your last visit.
  • Following: If you follow a lot of people, Instagram will be picking from a wider breadth of authors so you might see less of any specific person.
  • Usage: How long you spend on Instagram determines if you’re just seeing the best posts during short sessions, or it’s digging deeper into its catalog if you spend more total time browsing”.

Source : How Instagram’s algorithm works | TechCrunch

“Echo woke up due to a word in background conversation sounding like “Alexa.” Then, the subsequent conversation was heard as a “send message” request. At which point, Alexa said out loud “To whom?” At which point, the background conversation was interpreted as a name in the customers contact list. Alexa then asked out loud, “[contact name], right?” Alexa then interpreted background conversation as “right”. As unlikely as this string of events is, we are evaluating options to make this case even less likely”.

Source : Amazon explains how Alexa recorded a private conversation and sent it to another user – The Verge

“Parcoursup déroge à la loi « pour une République numérique » d’octobre 2016, qui impose deux obligations aux administrations recourant à des algorithmes dans le dessein d’aboutir à des décisions individuelles : intégrer systématiquement une « mention explicite » pour informer tous les usagers de l’existence et des modalités d’exercice de leur droit à connaître le détail des « règles » et « principales caractéristiques de mise en œuvre » du programme informatique utilisé ; et mettre en ligne et en libre accès – à compter du 7 octobre 2018 – les règles définissant « les principaux traitements algorithmiques utilisés dans l’accomplissement de leurs missions »”.

Source : Parcoursup : le « secret des délibérations » sera maintenu

“Parmi les indicateurs, qui se compteraient par « centaines », le fait qu’un compte n’ait pas confirmé d’adresse email, qu’une même personne ait créé simultanément plusieurs comptes, ou qu’elle mentionne dans ses tweets des personnes qui ne la suivent pas.
Comme pour la modération de ses contenus, Twitter compte, pour repérer les « trolls », sur une combinaison de moyens techniques (détection automatique grâce à des algorithmes) et humains (signalements des utilisateurs, modérateurs). Une fois identifiés, ils verront leurs commentaires non pas supprimés, puisqu’ils « ne transgressent pas les règles de Twitter », mais invisibilisés par défaut.Le réseau social se défend pour autant de toute volonté de censure, et assure ne pas dépasser sa mission d’hébergeur en triant les contenus”.

Source : Twitter rend les « trolls » moins visibles sur sa plateforme

«Nos règles ne correspondent pas au droit américain. L’exemple le plus parlant, ce sont les propos haineux. Ils sont légaux aux Etats-Unis. Mais nos règles sont beaucoup plus proches des normes européennes : nous n’autorisons pas les attaques contre les gens sur la base de leur genre ou de leur orientation sexuelle par exemple. Nos règles ne seront jamais juste américaines ou françaises mais doivent s’adapter au monde entier.
[…] Il y a certains domaines où la technologie est déjà très utile. Notamment dans le champ de l’image : il est facile pour une machine de reconnaître certains types de contenus comme des vidéos de décapitation ou de la pédopornographie. C’est beaucoup plus difficile pour du texte. Selon leur utilisation, les mêmes quatre mots peuvent être une attaque ou être totalement acceptables. C’est très dur pour nos outils automatiques de distinguer ces deux situations. Mais nous pensons y arriver. Actuellement, ils nous servent à repérer des contenus problématiques avant de les présenter à des modérateurs humains, qui prennent la décision. Cette dernière est ensuite incorporée à nos outils pour les améliorer».

Source : Facebook : la directrice de la politique des contenus explique les règles de modération

Facebook - Fake

«In its first quarterly Community Standards Enforcement Report, Facebook said the overwhelming majority of moderation action was against spam posts and fake accounts: it took action on 837m pieces of spam, and shut down a further 583m fake accounts on the site in the three months. But Facebook also moderated 2.5m pieces of hate speech, 1.9m pieces of terrorist propaganda, 3.4m pieces of graphic violence and 21m pieces of content featuring adult nudity and sexual activity».

Source : Facebook closed 583m fake accounts in first three months of 2018 | Technology | The Guardian

Il y a un peu plus de 18 ans…

«We live in an era fundamentally skeptical about self-government. Our age is obsessed with leaving things alone. Let the Internet develop as the coders would develop it, the common view has it. Keep government out.This is an understandable view, given the character of our government’s regulation. Given its flaws, it no doubt seems best simply to keep government away. But this is an indulgence that is dangerous at any time. It is particularly dangerous now» – Lawrence Lessig.

Source : Lawrence Lessig on the increasing regulation of cyberspace | Harvard Magazine

Facebook or Google — which should worry us more?

«Epstein’s group asked 661 Americans to pick one of two candidates in an Australian election. Since it was presumed they did not know much about Antipodean politics, the participants were instructed to research them with a Google-type search engine that offered the usual autocomplete suggestions when words were typed in. However, the researchers also varied the search suggestions shown beneath a candidate’s name, including a range of positive and negative words. The results were stark. When participants were later questioned about their voting preferences, changing the ratio of positive to negative suggestions in the autocomplete was shown to be capable of shifting the preferences of undecided voters by nearly 80 per cent — even though participants seemed free to search for any material they wanted».

Source : Facebook or Google — which should worry us more?

« Older posts Newer posts »

© 2024 no-Flux

Theme by Anders NorenUp ↑