Étiquette : gender (Page 1 of 2)

Effets négatifs du numérique: Pourquoi les adolescentes sont plus affectées par les réseaux sociaux?

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2023/05/4bMijAh7492A5u9Gl_Equn.jpg?w=676&ssl=1

“Quand les idées noires prennent place, plusieurs comportements sont possibles: prendre l’air et se balader, lire un livre, regarder une série ou encore, scroller sur TikTok ou tout autre réseau social. La dernière solution semble séduire de nombreux jeunes adolescents, prévient Addiction Suisse lundi, après avoir mené une étude en 2022 auprès de 9345 élèves de 11 à 15 ans. Selon ces données, près de 45% des élèves de cette tranche d’âge utilisent ces plateformes pour échapper à des sentiments négatifs. Des chiffres qui s’établissent à environ 35% chez les garçons et à un peu plus de 50% chez les filles.
Tout au long de l’étude Health Behaviour in School-aged Children, des différences apparaissent entre les comportements en ligne des filles et des garçons. Les jeunes utilisatrices sont notamment davantage concernées par une utilisation problématique des réseaux sociaux, qui touche environ 4% des garçons interrogés et près de 10% des filles.”

Source : Effets négatifs du numérique: Pourquoi les adolescentes sont plus affectées par les réseaux sociaux? | 24 heures

Predicting sex from retinal fundus photographs using automated deep learning

Figure 2

“Deep learning may transform health care, but model development has largely been dependent on availability of advanced technical expertise. Herein we present the development of a deep learning model by clinicians without coding, which predicts reported sex from retinal fundus photographs. A model was trained on 84,743 retinal fundus photos from the UK Biobank dataset. External validation was performed on 252 fundus photos from a tertiary ophthalmic referral center.”

Source : Predicting sex from retinal fundus photographs using automated deep learning | Scientific Reports

Fuite de Twitch : seulement 3 femmes sur les 100 streameurs les mieux payés au monde

“Les trois seules femmes qui figurent dans le top 100 des plus gros revenus de Twitch, entre septembre 2019 et octobre 2021, sont : Pokimane, à la 34e place, une streameuse de jeux vidéo, Amouranth, à la 48e place, qui fait des séances d’ASMR et des stream jacuzzi, et Sintica, à la 71e place, une DJ dont les lives sont focalisés sur la musique.
Pour quiconque suit de près ou de loin l’actualité de Twitch, cette nouvelle ne sera pas très étonnante : le sexisme et les commentaires misogynes sont très courants sur Twitch. Le harcèlement est également un fléau qui touche quasiment toutes les femmes streameuses, et le phénomène est encore plus exacerbé lors qu’elles sont spécialisées dans les jeux vidéo.”

Source : Fuite de Twitch : seulement 3 femmes sur les 100 streameurs les mieux payés au monde

Selon une étude réalisée en 2018 par l’éducation nationale, 9 % des lycéens affirment avoir été « victimes de vidéos, de photos ou de rumeurs humiliantes sur Internet ».

“Contactée, l’éducation nationale invoque un « protocole de prise en charge ». « Quand un élève est harcelé, il peut aller voir la personne en qui il a confiance », assure-t-on au ministère. Problème : dans les faits, le revenge porn n’est souvent pas considéré comme du harcèlement stricto sensu. Le protocole idoine n’est donc pas activé : « Il intervient s’il y a une notion de répétition, par exemple si des photos intimes étaient diffusées à plusieurs reprises », précise Olivier Raluy, CPE dans un collège et secrétaire national du Syndicat national des enseignements de second degré (SNES-FSU).”

Source : Le « revenge porn », pratique « banale » et hors de contrôle chez les élèves

Google Vision API

“Google notes in its own AI principles that algorithms and datasets can reinforce bias: ‘We will seek to avoid unjust impacts on people, particularly those related to sensitive characteristics such as race, ethnicity, gender, nationality, income, sexual orientation, ability, and political or religious belief.’ Google invited affected developers to comment on its discussion forums. Only one developer had commented at the time of writing, and complained the change was down to ‘political correctness.’ ‘I don’t think political correctness has room in APIs,’ the person wrote. ‘If I can 99% of the times identify if someone is a man or woman, then so can the algorithm. You don’t want to do it? Companies will go to other services.’”

Source : Google AI will no longer use gender labels like ‘woman’ or ‘man’ on images of people to avoid bias

https://i0.wp.com/www.beaude.net/no-flux/wp-content/uploads/2020/01/143762_HERO-GettyImages-860967818.jpg?w=676&ssl=1

“‘Notability are notoriously byzantine, to say it kindly,’ the anonymous editor says. They hope the push to reform the guidelines will help compensate for the historic underrepresentation of women and minorities, since it’s not just women who find their path into Wikipedia blocked. ‘A lot of prejudice is unconscious and intersectional,’ says Lubbock. ‘Wikipedia is dealing not just with a gender inequality issue, but also racial and geographical inequalities.’

Source : Female scientists’ pages keep disappearing from Wikipedia – what’s going on? | News | Chemistry World

View image on Twitter

“Goldman Sachs denied allegations of gender bias and said on Monday that it will reevaluate credit limits for Apple Card users on a case-by-case basis for customers who received lower credit lines than expected.“We have not and never will make decisions based on factors like gender,” Carey Halio, Goldman’s retail bank CEO, said in a statement. “In fact, we do not know your gender or marital status during the Apple Card application process.”Halio said that customers unsatisfied with their line should contact the company.“Based on additional information we may request, we will re-evaluate your credit line,” the statement said.”

Source : Goldman Sachs to reevaluate Apple Card credit limits after bias claim

“Historically, it has provided only one translation for a query, even if the translation could have either a feminine or masculine form. So when the model produced one translation, it inadvertently replicated gender biases that already existed. For example: it would skew masculine for words like “strong” or “doctor,” and feminine for other words, like “nurse” or “beautiful.”

Source : Google is fixing gender bias in its Translate service

“Smart Compose is an example of what AI developers call natural language generation (NLG), in which computers learn to write sentences by studying patterns and relationships between words in literature, emails and web pages. A system shown billions of human sentences becomes adept at completing common phrases but is limited by generalities. Men have long dominated fields such as finance and science, for example, so the technology would conclude from the data that an investor or engineer is “he” or “him.” The issue trips up nearly every major tech company. ”

Source : Fearful of bias, Google blocks gender-based pronouns from new AI tool | Reuters

recruiting automation

“The group created 500 computer models focused on specific job functions and locations. They taught each to recognize some 50,000 terms that showed up on past candidates’ resumes. The algorithms learned to assign little significance to skills that were common across IT applicants, such as the ability to write various computer codes, the people said. […] With the technology returning results almost at random, Amazon shut down the project.”

Source : Amazon scraps secret AI recruiting tool that showed bias against women | Reuters

« Older posts

© 2024 no-Flux

Theme by Anders NorenUp ↑