Étiquette : manipulation (Page 2 of 15)

Tech guru Jaron Lanier: ‘The danger isn’t that AI destroys us. It’s that it drives us insane’ | Jaron Lanier

“That’s all well and good, but what about AI replacing us in the workplace? We already have the prospect of chatbots writing articles like this one. Again, he says it’s not the technology that replaces us, it’s how we use it. “There are two ways this could go. One is that we pretend the bot is a real thing, a real entity like a person, then in order to keep that fantasy going we’re careful to forget whatever source texts were used to have the bot function. Journalism would be harmed by that. The other way is you do keep track of where the sources came from. And in that case a very different world could unfold where if a bot relied on your reporting, you get payment for it, and there is a shared sense of responsibility and liability where everything works better. The term for that is data dignity.””

Source : Tech guru Jaron Lanier: ‘The danger isn’t that AI destroys us. It’s that it drives us insane’ | Jaron Lanier | The Guardian

L’intelligence artificielle pour modifier sa voix : « Pour un être humain, la différence va devenir impossible à détecter »

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2023/03/e3e262e_1679063483563-pixels-voix-ia-2.jpg?w=676&ssl=1

“Signe de la démocratisation de ces techniques : les voix « imitées » ne sont plus simplement celles de célébrités. Celles d’anonymes, récupérées depuis du contenu posté publiquement sur les réseaux sociaux, peuvent être utilisées pour mettre en œuvre un nouveau type d’arnaque, visant à extorquer de l’argent à partir d’une simple conversation téléphonique. Le Washington Post raconte ainsi le cas de parents ayant reçu un appel de quelqu’un se faisant passer pour leur enfant et les implorant de leur envoyer de l’argent.”

Source : L’intelligence artificielle pour modifier sa voix : « Pour un être humain, la différence va devenir impossible à détecter »

Murdoch Acknowledges Fox News Hosts Endorsed Election Fraud Falsehoods

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2023/03/27dominion-murdoch-superJumbo.jpg?resize=676%2C451&ssl=1

“The new documents and a similar batch released this month provide a dramatic account from inside the network, depicting a frantic scramble as Fox tried to woo back its large conservative audience after ratings collapsed in the wake of Mr. Trump’s loss. Fox had been the first network to call Arizona for Joseph R. Biden on election night — essentially declaring him the next president. When Mr. Trump refused to concede and started attacking Fox as disloyal and dishonest, viewers began to change the channel. The filings also revealed that top executives and on-air hosts had reacted with incredulity bordering on contempt to various fictitious allegations about Dominion. These included unsubstantiated rumors — repeatedly uttered by guests and hosts of Fox programs — that its voting machines could run a secret algorithm that switched votes from one candidate to another, and that the company was founded in Venezuela to help that country’s longtime leader, Hugo Chávez, fix elections.”

Source : Murdoch Acknowledges Fox News Hosts Endorsed Election Fraud Falsehoods – The New York Times

STORY KILLERS | All the articles • Forbidden Stories

“1 journalist was murdered.
100 journalists from 30 media outlets came together to pursue her work. For the past six months, Forbidden Stories and its partners have worked together in complete secrecy on the “Story Killers” project, a global investigation into the opaque world of disinformation mercenaries that we’re releasing this Tuesday […].
Pursuing Lankesh’s intuition that fake news could be used as a “weapon,” our consortium tracked the companies selling services to influence opinions, manipulate elections, destroy reputations and bury the truth.
Manipulation factories, cyber mercenaries, hack-and-leak operations, weaponized information: the « Story Killers » investigation will reveal the systemic, global nature of this industry and the companies offering disinformation services to the highest bidder–be it a dictator, a crooked politician or a drug trafficker.”

Source : STORY KILLERS | All the articles • Forbidden Stories

Sur Internet, la prolifération de « deepfakes » pornographiques embarrasse professionnels et régulateurs

D’après une étude nééerlandaise, 96 % des deepfakes en circulation sur Internet sont des détournements pornographiques.

“DeepFaceLab est un outil de création de deepfakes. Ses concepteurs, qui ont publié en libre accès leur code sur la plate-forme GitHub, estiment que la quasi-totalité des vidéos deepfakes créées le sont aujourd’hui avec ce logiciel. Sur leur page, on y trouve de nombreux exemples : le visage du milliardaire Elon Musk intégré au film Interstellar, l’acteur Arnold Schwarzenegger rajeuni, le chef de l’Etat nord-coréen Kim Jong-un en plein laïus sur la préservation de la démocratie… Mais aussi, plus bas, un lien vers MrDeepFakes, un site pornographique.”

Source : Sur Internet, la prolifération de « deepfakes » pornographiques embarrasse professionnels et régulateurs

Présidentielle : un quiz pour choisir son candidat avantage secrètement Éric Zemmour

Présidentielle : un quiz pour choisir son candidat avantage secrètement Éric Zemmour

“Surtout, dans l’immense majorité des cas, après avoir répondu aux 10 questions, le site nous indiquera que « le candidat qui nous correspond » est Éric Zemmour. Ce n’est qu’après plusieurs essais et en inspectant le code source du site que Numerama s’est aperçu qu’il était possible d’avoir d’autres résultats : le test peut, supposément, donner comme réponse Yannick Jadot, Fabien Roussel, Emmanuel Macron et Valérie Pécresse. Les autres candidats ne sont pas inscrits et ne peuvent donc jamais apparaître dans les résultats.”

Source : Présidentielle : un quiz pour choisir son candidat avantage secrètement Éric Zemmour – Numerama

The latest marketing tactic on LinkedIn: AI-generated faces

LinkedIn Fake

“At first glance, Ramsey’s profile looks like many others on LinkedIn: the bland headshot with a slightly stiff smile; a boilerplate description of RingCentral, the software company where she says she works; and a brief job history. She claims to have an undergraduate business degree from New York University and gives a generic list of interests: CNN, Unilever, Amazon, philanthropist Melinda French Gates. But there were oddities in the photo: the single earring and strange hair, the placement of her eyes, the blurry background. Alone, any of these clues might be explained away, but together, they aroused DiResta’s suspicions […].

That chance message launched DiResta and her colleague Josh Goldstein at the Stanford Internet Observatory on an investigation that uncovered more than 1,000 LinkedIn profiles using what appear to be faces created by artificial intelligence.”

Source : The latest marketing tactic on LinkedIn: AI-generated faces : NPR

“Cheep a été justement présenté partout comme un contributeur historique de l’encyclopédie, actif depuis 15 ans, et qui a profité de cette aura pour se sortir de certaines situations houleuses — notamment lorsqu’il avait tenté de publier sur Wikipédia que « la responsabilité dans la Shoah en France [de Philippe Pétain et Pierre Laval] est sujette à débat.» À l’heure où nous écrivons ces lignes, le 18 février à midi, Samuel Lafont dénonce une « censure » de Wikipédia en générant de nombreux tweets sur le sujet. Il y a deux semaines, le Monde décortiquait ces opérations d’exposition sur Twitter, menées et assumées par le responsable de la stratégie numérique d’Éric Zemmour, qui permettent à certains hashtags de devenir artificiellement populaires sur le réseau social.”

Source : Wikipédia bannit 7 contributeurs qui trompaient l’encyclopédie pour favoriser Éric Zemmour – Numerama

Reverse engineering generative models from a single deepfake image

“Deepfakes have become more believable in recent years. In some cases, humans can no longer easily tell some of them apart from genuine images. Although detecting deepfakes remains a compelling challenge, their increasing sophistication opens up more potential lines of inquiry, such as: What happens when deepfakes are produced not just for amusement and awe, but for malicious intent on a grand scale? Today, we — in partnership with Michigan State University (MSU) — are presenting a research method of detecting and attributing deepfakes that relies on reverse engineering from a single AI-generated image to the generative model used to produce it. Our method will facilitate deepfake detection and tracing in real-world settings, where the deepfake image itself is often the only information detectors have to work with.”

Source : Reverse engineering generative models from a single deepfake image

« Older posts Newer posts »

© 2024 no-Flux

Theme by Anders NorenUp ↑