POPULI-SCOOP

Info citoyenne & Actus critiques   COVID-19.   ICI Vérifions.  Follow argotheme on F6S

Accueil > High-tech / Sciences > TECHNOLOGIE, INTERNET, PERFORMANCES INCLASSABLES > Quand progresse l’IA, la réalité la pousse à quêter l’impartialité.

Quand progresse l’IA, la réalité la pousse à quêter l’impartialité.

Une éthique que la machine et ses programmes doivent adopter.

lundi 15 mars 2021, par N.E. Tatem

L’affaire est arrivée au Congrès américain, avec un appel, pour qu’il renforce la protection des lanceurs d’alertes pour les chercheurs en IA. Devenue une préoccupation d’urgence, le licenciement d’une employée de Google pour avoir dénoncé le racisme et la censure de la recherche antiraciste, constitue maintenant un sujet de débat sur tant l’usage des technologies. La diversité des salariés dans ces activités qui engrangent de nouveaux recrutements et développent une nouvelle économie dite numérique, renoue avec la vie commune.

Le traitement des datas tente d’acquérir sa déontologie, pour en stabiliser et légaliser toutes les traitements et actions qui leurs imputent une vocation quelconque. Le puissant moteur de recherche du Web, Google appartenant à un conglomérat appelé ALPHABET, est transparent dans ce cas de prise des données de ses utilisateurs. Cependant des employés, du géant au siège social est Googleplex à la « Silicon Valley », lancent des alertes qui réveillent de vraies discussions décisive pour l’avenir.

Les datas du COVID-19 maintiennent le racisme systémique.
8 février 2021

Parce que récente technologie et pratique tant sociale qu’économique, l’IA (Intelligence artificielle) n’est pas encore au point pour être appliquée et déployée. De même que son éthique est encore à l’état préliminaire d’une activité venant à naître et non encore pleinement acceptée ou judicieusement pratiquée, ou même commercialisée, par ses propriétaires.

Cette IA reproduit-elle finalement les réflexes et paramètres, de la société humaine, tels qu’ils s’étaient depuis des siècles ? Ce qui est surprenant, quand nous considérons la technologie plus impartiale, elle ne l’est pas. Or quand elle est élaborée par des maîtres des différenciations, obéit-elle vraiment à une ligne qui lui tracée selon la reproduction de règle usitées et inégales.

L’ancien employé du Stanford Artificial Intelligence Laboratory, qui est paradoxalement en litige professionnel avec Google, est l’une des principales voix dans l’utilisation éthique de l’intelligence artificielle. Il s’agit d’une femme de la communauté afro-américaine répondant au nom de Timnit Gebru, souvent consulté pour son expertise dans ce domaine de pointe.

L’éthique de l’IA qui aide aux profits.
15 janvier 2021

Elle est bien connue pour son travail sur une étude historique en 2018 qui a montré comment un logiciel de reconnaissance faciale identifiait à tort les femmes à la peau foncée jusqu’à 35% du temps. Alors que la technologie fonctionnait avec une quasi-précision sur les hommes blancs, elle reçut son licenciement de Google par e-mail qui dit avaliser sa démission, qu’elle n’a pas sollicitée.

Son retrait du personne est basé sur la non-satisfaction du travail prévu par ses responsables, d’après une interprétation de plusieurs exposés médiatiques sur son cas. Elle avait critiqué ouvertement le manque de diversité et le traitement inégal des travailleurs noirs dans les entreprises de technologie, en particulier chez Google d’ Alphabet Inc.

Elle a déclaré que son licenciement visait à envoyer un message au reste des employés de Google, exprimant sa pensée pour qu’ils ne peuvent pas parler d’un tel sujet d’éthique qui est de sa spécialité. Or des couvertures médiatiques, ayant pour sources vérifiées, ont bien révélé un taux d’erreur de 0,8% pour les hommes à la peau claire, 34,7% pour les femmes à la peau foncée pour des logiciels de reconnaissance faciale basés sur l’IA.

C’est comme un plafond de ce que peuvent dire et faire les femmes et les citoyens américains de couleur ou d’origine africaine. On évoque à tracer ce cas de partialité, ce qui constaté dans les processus de soins de santé, de prêts personnels et de recrutement. La reconnaissance conçue par les fabricants d’IA ne tient pas des contextes historiques et sociologiques qui peut conduire à des systèmes d’IA plus justes et plus humains. Mais reproduisent des normes controversées.

Vous voulez utiliser un stockage en ligne, du cloud de Microsoft, ICI.


Voir en ligne : IAIntelligence Artificielle.

Un message, un commentaire ?

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

Connexions’inscriremot de passe oublié ?


L'éditeur de POPULI-SCOOP publie vos ouvrages.L'éditeur de POPULI-SCOOP publie vos ouvrages.logo


Populi-Scoop lancera prochainement une formule de rémunération des ses rédacteurs. Inscrivez-vous via le formulaire de CONTACT.

Prenez des e-books gratuits.Offre
Vous inscrire sur ce site

L’espace privé de ce site est ouvert aux visiteurs, après inscription. Une fois enregistré, vous pourrez consulter les articles en cours de rédaction, proposer des articles et participer à tous les forums.

Identifiants personnels

Indiquez ici votre nom et votre adresse email. Votre identifiant personnel vous parviendra rapidement, par courrier électronique.

Soutenir par un don