Étiquette : black box

View image on Twitter

“Goldman Sachs denied allegations of gender bias and said on Monday that it will reevaluate credit limits for Apple Card users on a case-by-case basis for customers who received lower credit lines than expected.“We have not and never will make decisions based on factors like gender,” Carey Halio, Goldman’s retail bank CEO, said in a statement. “In fact, we do not know your gender or marital status during the Apple Card application process.”Halio said that customers unsatisfied with their line should contact the company.“Based on additional information we may request, we will re-evaluate your credit line,” the statement said.”

Source : Goldman Sachs to reevaluate Apple Card credit limits after bias claim

“We don’t just want this to be an academically interesting result – we want it to be used in real treatment. So our paper also takes on one of the key barriers for AI in clinical practice: the “black box” problem. For most AI systems, it’s very hard to understand exactly why they make a recommendation. That’s a huge issue for clinicians and patients who need to understand the system’s reasoning, not just its output – the why as well as the what.
Our system takes a novel approach to this problem, combining two different neural networks with an easily interpretable representation between them. The first neural network, known as the segmentation network, analyses the OCT scan to provide a map of the different types of eye tissue and the features of disease it sees, such as haemorrhages, lesions, irregular fluid or other symptoms of eye disease. This map allows eyecare professionals to gain insight into the system’s “thinking.” The second network, known as the classification network, analyses this map to present clinicians with diagnoses and a referral recommendation. Crucially, the network expresses this recommendation as a percentage, allowing clinicians to assess the system’s confidence in its analysis”.

Source : A major milestone for the treatment of eye disease | DeepMind

“Nous en savons de plus en plus sur le monde, tout en étant de moins en moins capables d’agir sur lui, du fait de sa complexité et de son intrication. Le sentiment d’impuissance qui en résulte, plutôt que de nous inviter à reconsidérer le monde, semble nous pousser plus avant dans la paranoïa et la désintégration sociale. Pour Bridle, nous avons déchaîné avec la technologie des systèmes si complexes qu’il nous devient difficile de comprendre ce qu’ils veulent. Pourtant, nous ne sommes pas aussi dépourvus qu’on veut bien le penser”.

Source : Les lanceurs d’alerte sont-ils une réponse aux problèmes de la technologie ? | InternetActu.net

« Le problème est distinct de celui de la reproductibilité en IA, à cause duquel les chercheurs ne peuvent pas reproduire les résultats d’autrui en raison de pratiques expérimentales et de publication incorrectes. Il diffère également de celui de la «boîte noire» ou de l’«interprétabilité» de l’apprentissage automatique, c’est-à-dire la difficulté dans laquelle on se trouve d’expliquer comment une IA particulière est parvenue à ses conclusions. Comme le dit Rahimi,  »j’essaie de faire la distinction entre un système d’apprentissage automatique qui est une boîte noire et un domaine entier qui est devenu une boîte noire ». »

Source : Le deep learning est-il autre chose que de « l’alchimie » ? | InternetActu.net

«Les prétentions à la suzeraineté de ces plates-formes, pour reprendre la formule de Alain Supiot (2) dans Gouverner par les nombres, doit être combattue par la souveraineté des États (comme le fait le RGPD) pour contraindre ces plates-formes à remettre dans le domaine public toutes les données et traces qui sont à leur disposition, données produites par le public et qui méritent d’être reprises, traitées et contrôlées par des organismes scientifiques publics avant d’être mises à disposition des chercheurs dans des conditions précises comme c’est le cas pour les recensements (et donc avec des limites). Les principes de la science ouverte risquent fort de rester des vœux pieux si on ne s’attaque pas dès maintenant à cette prédation des données par l’oligopole de l’attention que constituent les GAFAMT» – Dominique Boullier.

Source : Facebook et la recherche : le « quasi État » | InternetActu.net

Facebook and privacy

«Facebook veut tout savoir sur ses membres mais ne dit rien de ses algorithmes.
[…] Des tierces parties à votre activité ont tout à coup accès à votre premier cercle. Alors qu’un avocat par exemple a bien pris soin de ne pas s’inscrire avec son email professionnel sur Facebook, il lui est régulièrement proposé de se lier avec les personnes qu’il affronte lors de procès. La situation peut parfois être dramatique quand des prostitué(e)s qui prennent pourtant toutes les précautions possibles pour protéger leur anonymat (deux identités, deux emails, deux téléphones) apparaissent toutefois avec leur véritable identité comme ami(e)s potentiel(le)s sur le compte de leur clients».

Source : Vous avez un profil secret, seul Facebook le connaît – Le Temps

AlgoTransparency

Vidéos les plus suggérées par YouTube, dans la liste de lecture à droite à partir de la recherche « Benoît Hamon »

According to sources, the Trending team’s editorial staff were alerted at 4pm that they were being fired—as the news of Facebook’s switch to algorithms first broke—and were asked to leave the building by 5pm.

However, removing human writers from Trending doesn’t necessarily eliminate bias. Human bias can be embedded into algorithms, and extremely difficult to strip out.

Source : Facebook (FB) fired its Trending editors, apparently trying to get rid of bias by getting rid of humans — Quartz

© 2024 no-Flux

Theme by Anders NorenUp ↑