Tag: algorithms (page 1 of 8)

«Afficher des extraits de pages Wikipédia ne réglera sans doute pas ces enjeux plus larges. D’autant plus que ces « signaux d’information » (information cues) ne concernent pas ce que la plupart des experts considèrent être la source du problème : l’algorithme de recommandation. Ce dernier permet de suggérer à l’internaute des vidéos qu’il estime similaires à celle qu’il est en train de consulter et donc susceptibles de l’intéresser.Plusieurs experts, dont un ancien ingénieur de YouTube, estiment que l’objectif principal est de faire en sorte que les utilisateurs visionnent des vidéos le plus longtemps possible. Ce système favoriserait ainsi les vidéos les plus accrocheuses, notamment celles… sur les théories du complot et les fausses informations».

Source : Pour combattre le complotisme, YouTube fait appel à Wikipédia

«Une « erreur »…« Nous nous excusons pour cette erreur et avons indiqué à l’annonceur que nous approuvons son annonce », a déclaré auprès de l’AFP une porte-parole de Facebook. Facebook a souligné jeudi que sa « politique en matière de publicité ne permet pas la nudité ou la nudité suggérée ». « Mais nous faisons une exception pour les statues, et à ce titre cette annonce aurait dû être approuvée », a précisé la porte-parole».

Source : Facebook présente ses excuses après la censure d’une Vénus paléolithique

«Après la fusillade du lycée de Parkland, YouTube s’est retrouvé sous le feu des critiques, pour avoir laissé la vidéo conspirationniste d’Infowars en ligne, et qui plus est dans son onglet « tendances ». Le site s’en était expliqué, assurant dans un communiqué que le contenu en question avait été identifié à tort par un algorithme comme respectant les règles d’utilisation de la plate-forme».

Source : YouTube sanctionne une chaîne pour une vidéo conspirationniste sur la tuerie en Floride

Google bombing ?

«Mise à jour : Google France nous indique qu’il ne s’agirait en aucun cas d’un “Google bomb” ou de quelque attaque que ce soit, mais d’un simple “problème d’association” entre les titres et les affiches, quand bien même le hasard aurait mal fait les choses».

Source : [MàJ] Black Panther victime d’un « Google bombing » raciste | Journal du Geek

Et moi qui pensais que les Fake News, cela se partageait surtout entre amis… et que ce n’était pas à Facebook de décider si les utilisateurs préfèrent voir des posts de leur famille ou des médias qu’ils apprécient.

«Now, I want to be clear: by making these changes, I expect the time people spend on Facebook and some measures of engagement will go down. But I also expect the time you do spend on Facebook will be more valuable. And if we do the right thing, I believe that will be good for our community and our business over the long term too. At its best, Facebook has always been about personal connections. By focusing on bringing people closer together — whether it’s with family and friends, or around important moments»

Via Mark Zuckerberg on Facebook.

«Une partie du problème réside dans le fait que des sociétés telles que Facebook ou Google se sont approprié – et ont monopolisé – le marché publicitaire en ligne. Cela a abouti à un modèle commercial par répartition ou « pay as you go », dans lequel les annonceurs sont facturés seulement lorsqu’une page est vue ou qu’un utilisateur a cliqué pour la voir. Ce système assure que les sociétés de médias sociaux n’aient aucun incitatif à jouer le rôle d’« arbitres de la vérité ». Toutefois, pour que le combat soit efficace, il faut que l’initiative vienne de ces sociétés elles-mêmes».

Source : Fake news : « L’initiative doit venir des géants du Web »

«We present a method to create universal, robust, targeted adversarial image patches in the real world. The patches are universal because they can be used to attack any scene, robust because they work under a wide variety of transformations, and targeted because they can cause a classifier to output any target class. These adversarial patches can be printed, added to any scene, photographed, and presented to image classifiers; even when the patches are small, they cause the classifiers to ignore the other items in the scene and report a chosen target class».

Source : Adversarial Patch – Research Article | DeepAI

«A ce jour, en France, les bases de données juridiques en libre accès sont encore incomplètes, mais une loi votée fin 2016 va bientôt imposer à toutes les juridictions de publier intégralement leurs décisions et les textes annexes. Le big data judiciaire pourra alors se déployer pleinement».

Source : Des « juges virtuels » pour désengorger les tribunaux

«Algorithms choose the information we see when we go online, the jobs we get, the colleges to which we’re admitted and the credit cards and insurance we are issued. It goes without saying that when computers are making decisions, a lot can go wrong. Our lawmakers desperately need this explained to them in an unbiased way so they can appropriately regulate, and tech companies need to be held accountable for their influence over all elements of our lives. But academics have been asleep at the wheel, leaving the responsibility for this education to well-paid lobbyists and employees who’ve abandoned the academy».

Source : The Ivory Tower Can’t Keep Ignoring Tech – The New York Times

Paramétrer notre bulle de filtre… pour en reprendre le contrôle

«Les fausses nouvelles conçues pour tromper le public et recueillir des publicités reposent sur le fait que les algorithmes de Facebook ont du mal à déterminer si les informations sont vraies ou non, alors qu’ils peuvent facilement voir si les informations sont nouvelles et populaires»

Source : Paramétrer notre bulle de filtre… pour en reprendre le contrôle | InternetActu.net

Older posts

© 2018 no-Flux

Theme by Anders NorenUp ↑