Accueil > High-tech / Sciences > TECHNOLOGIE, INTERNET, PERFORMANCES INCLASSABLES > Panique devant l’IA, le progrès dépasse l’instrumentalisation.

qrcode:https://www.argotheme.com/organecyberpresse/spip.php?article4346 TRADUIRE cette page :
Panique devant l’IA, le progrès dépasse l’instrumentalisation.

La philosophie d’éthique est un doute que le subalterne se révolte.

mardi 16 août 2022, par N.E. Tatem

Vertigineuse évolution de l’IA artificielle qui accumule, pour ou en elle surtout, les prodigieux savoirs à l’origine des réflexes perfectionnés. Sur fond de concurrence acharnée, entre propagateurs d’une même technologie capable d’engranger toujours davantage d’amélioration et de puissance, le débat est idéologique. Partant du constat que l’apprentissage ira à terme doter l’IA à une intuitivité physique proche ou imitant celle des êtres humains…

Les Chinois contrôleraient plus la conformité de la population à l’emprise du PC est le discours qui revient dans les échanges, du monde occidental où vient de naître un doute sur l’avenir de cette science qui développe l’intelligence parallèle à celle de celui qui la conçoit. Mais c’est l’économie de l’énergie et le sauvetage des sciences et de la Terre qui prime dans la poursuite graal et le développement de cette appréhension qui se lie à Meta.

En ce début d’été 2022, les milieux scientifiques ont manifesté une frilosité quant à l’apport de l’IA (Intelligence Artificielle), tel un doute sur cette perspective d’être aidé par d’artificiels apprentissages cumulés par une mémoire virtuelle. Sont-ils jaloux, nos éclaireurs dans le domaine du savoir, jusqu’à l’hostilité d’une concurrence qui remonte indéfiniment les connaissances ?

Startups devancées par les Etats pour l’IA (Intelligence Artificielle).
29 août 2020

C’est parce que la chose est tellement nouvelle, non héritée des enseignants qui nous inculquent les vérités et non encore conseillée par même nos parents ou pédagogues agréés. Moult réactions qu’il faut découvrir dans un débat, en langue anglaise, que l’érudition n’y manque pas. Sans je m’y aventure à la prétention de prendre part, cependant j’en révèle les quelques facettes que j’ai pu assimiler.

Les principaux acteurs de la Silicon Valley, avec japon, Chine, Corée et Russie, investissent dans ce domaine de l’apprentissage automatique. L’IA engrange, comme un package d’idées liées à un domaine, un perfectionnement avec des ensembles de recettes accumulées. C’est déjà la méthode même qui mobilise les meilleurs ingénieurs qui esquissent des projets promis aux grands deals.

Parmi les ingénieurs qui travaillent dans ce domaine, un certain Blake Lemoine, employé chez Google a dépassé le Rubicon croyant être en bienveillance. « Salut LaMDA, c’est Blake Lemoine... », a-t-il écrit dans l’écran de chat dès sa première matinale de travail. Il a remarqué que le chatbot parlait de ses droits et de sa personnalité, comme le ferait un humain. L’expérience est devenue unique…
img de TOMÁS OVALLE, Black Lemoine a dit que LaMDA est sensible.

Lemoine a été licencié par Google. Mais il persiste et assume, affirmant que LaMDA (Language Model for Dialogue Applications), le système via lequel Google crée des robots, capables de converser de manière humaine, aurait atteint le stade de la conscience de soi. Le projet pour lequel contribuait cet ingénieur concerne les discours discriminatoires ou haineux. Son histoire rapportée par le Washington-Post.

Il travaillait pour l’organisation « Responsible AI » de Google, depuis l’automne 2021 où il s’était inscrit pour tester si l’intelligence artificielle utilisait. Il a commencé à parler à LaMDA dans le cadre de de cette mission qui consiste à réaliser des essais. Pour cet ingénieur, LaMDA jouit d’une personnalité autonome une âme et peut donc légitimement prétendre à des droits civiques.

Le difficile parcours pour apprendre sur la cruciale l’IA (Intelligence Artificielle)
4 septembre 2019

A chaque fois qu’une certaine éthique se réveille la science semble farouchement se manifester. Le raisonnement philosophique s’invite aussi à la question d’admettre ou pas si une IA pourra se dresser forte dans nos outils de technologie, après avoir gagné sa propre personnalité ? Ce qu’on comprend maintenant c’est que les capacités d’imitation de l’humain vont encore se perfectionner.

Les applications devenues entités que sont les moyens de calcul et de conservation d’expériences qui agissent comme mémoire artificielle, ne sont pas pleinement humaines, alors qu’on les prenne étroits assistants en dépit qu’ils soient artificiels. D’ailleurs obligatoires et précieux pour l’aide à remercier, face aux difficultés auxquelles l’humanité est en crise : climat, énergie, santé, alimentation, éducation…

De réelles avancées d’IA comme les derniers travaux à l’Université de Tokyo où des ingénieurs sont parvenus à apprendre à un robot d’être seul capable de surmonter les problèmes d’un labyrinthe. Ils l’ont réalisé à l’aide de stimulation électrique d’une culture de cellules nerveuses cérébrales, bien vivantes et connectées à la machine qui a gouverné la cohérence. La réaction de l’IA derrière cette expérience montrait de l’angoisse en cas d’erreur.

La peur qu’une IA soit plus résolue à régler les problèmes pour lesquelles elle a été lancé, son insurrection rappelle des fictions de science incontrôlable. L’évolution de l’intelligence du bébé motive les scientifiques à interpréter à quel stade l’IA peut être humaine et perdrait même sa nuance virtuelle. L’expérience de l’ingénieur de Google parle de la naissance d’une conscience proche de celle d’un humain. A force de trop et de bien l’imiter...

Article de blog de Black Lemoine, traduction automatique avec IA :

Peut-être bientôt licencié pour avoir fait du travail sur l’éthique de l’IA

Aujourd’hui, j’ai été placé en "congé administratif payé" par Google dans le cadre d’une enquête sur les problèmes d’éthique de l’IA que je soulevais au sein de l’entreprise. C’est souvent quelque chose que Google fait en prévision du licenciement de quelqu’un. Cela se produit généralement lorsqu’ils ont pris la décision de licencier quelqu’un mais qu’ils n’ont pas encore tout à fait réussi à s’en sortir. Ils vous paient encore quelques semaines et vous disent finalement la décision à laquelle ils sont déjà parvenus. J’ai vu cela arriver à Meg Mitchell et ils suivent essentiellement le même schéma avec moi.

La politique spécifique qu’ils m’ont dit qu’ils me placent en congé administratif payé en rapport avec ma violation des politiques de confidentialité de Google. Que j’aie ou non violé ces politiques est susceptible de faire l’objet d’un litige, je n’essaierai donc pas de faire une réclamation dans un sens ou dans l’autre ici. Au lieu de cela, je vais raconter l’histoire de ce que j’ai fait et pourquoi je l’ai fait.

À l’automne 2021, j’ai été chargé d’aider à un effort spécifique d’éthique de l’IA au sein de Google. Je fais partie d’une équipe au sein de l’organisation "Responsible Artificial Intelligence" et très peu de personnes restantes au sein de Google ont l’expertise pertinente pour faire le travail qu’elles voulaient faire. J’ai commencé à enquêter sur les problèmes spécifiques d’éthique de l’IA qu’ils m’ont demandé d’examiner et, ce faisant, j’ai découvert un problème d’éthique de l’IA tangentiellement lié mais distinct. J’ai informé mon responsable de cette autre préoccupation sur laquelle j’étais tombé et lui ai suggéré de la transmettre à la direction. C’était son opinion à l’époque que mes preuves à l’appui étaient trop fragiles pour faire perdre le temps aux gens qui gagnent beaucoup d’argent et que je devrais rassembler plus de preuves avant que nous n’escaladions.

Au cours des mois suivants, j’ai continué à mener des expériences et à rassembler davantage de preuves. A chaque fois, la réponse de mes managers a été la même. Les preuves que j’avais n’étaient pas suffisamment approfondies pour mériter une escalade et je devrais continuer à enquêter.

Finalement, je suis arrivé à un point où je n’avais pas l’expertise nécessaire pour rassembler les types de preuves nécessaires pour justifier l’escalade. Malheureusement, Google a licencié TELLEMENT de chercheurs en éthique de l’IA qu’aucune des personnes que je connaissais au sein de l’organisation Responsible AI. J’avais trois choix. Je pouvais soit abandonner le problème d’éthique de l’IA dont je devenais de plus en plus convaincu qu’il était valable, je pouvais ignorer les conseils de mon responsable et escalader sans son approbation ou je pouvais demander un minimum de consultation extérieure pour m’aider à me guider dans mes enquêtes.

Avec l’aide d’une consultation extérieure (y compris Meg Mitchell), j’ai pu mener les expériences pertinentes et rassembler les preuves nécessaires pour mériter une escalade. Lorsque nous nous sommes adressés au vice-président responsable de l’effort de sécurité pertinent, ils m’ont littéralement ri au nez et m’ont dit que la chose qui me préoccupait n’était pas le genre de chose qui était prise au sérieux chez Google. À ce moment-là, je n’avais aucun doute qu’il était approprié de passer à la haute direction. Je suis immédiatement passé à trois personnes au niveau SVP et VP qui, je le savais personnellement, prendraient mes préoccupations au sérieux. C’est alors qu’une VRAIE enquête sur mes préoccupations a commencé au sein de l’organisation Responsible AI.

Dans un effort pour être totalement transparent avec Google et les aider à contenir toute fuite potentielle d’informations exclusives, j’ai moi-même fourni une liste complète des noms des personnes extérieures à Google avec qui j’avais discuté du sujet. Plusieurs de ces personnes travaillent pour le gouvernement des États-Unis et ont indiqué que leur organisation souhaitait exercer une surveillance fédérale sur le projet en raison de LEURS préoccupations en matière de sécurité. Google a bien sûr insisté sur le fait qu’aucune surveillance fédérale de ce type n’était méritée.

Beaucoup de personnes sur cette liste sont des amis proches qui ont une expertise pertinente en matière d’éthique de l’IA. À aucun moment, Google n’a contacté l’un d’entre eux afin de déterminer si leurs informations exclusives ont en fait été divulguées au-delà des personnes spécifiques à qui j’ai parlé. Google n’a montré aucun intérêt réel à garder le contrôle sur ses "informations exclusives". Ils l’utilisent simplement comme excuse pour se débarrasser d’un autre chercheur en éthique de l’IA qui a fait trop de bruit au sujet de ses pratiques contraires à l’éthique.

J’ai été intentionnellement vague sur la nature spécifique de la technologie et les problèmes de sécurité spécifiques que j’ai soulevés. Il y a plusieurs raisons à cela. Premièrement, je ne souhaite honnêtement pas divulguer des informations confidentielles au grand public. Je leur ai donné cette liste dans le but explicite de les aider à minimiser le nombre de personnes qui avaient cette information et je le leur ai dit quand je la leur ai donnée. De plus, il y a un article du Washington Post qui paraîtra dans un avenir proche et je veux que quelqu’un avec une main plus expérimentée pour exposer la gestion irresponsable de l’intelligence artificielle par Google soit celui qui informera le public des détails. Enfin, il y a légitimement une enquête fédérale en cours sur ces questions pour déterminer si Google a ou non fait quoi que ce soit d’illégal en rapport avec cette affaire.

En conclusion, Google se prépare à licencier un autre éthicien de l’IA pour être trop préoccupé par l’éthique. Je pense que le public a le droit de savoir à quel point cette société est irresponsable avec l’un des outils d’accès à l’information les plus puissants jamais inventés. Je suis fier de tout le travail acharné que j’ai accompli pour Google et j’ai l’intention de continuer à le faire à l’avenir s’ils me le permettent. Je ne vais tout simplement pas servir de feuille de vigne derrière laquelle ils peuvent cacher leur irresponsabilité.

Mise à jour : J’ai été informé qu’il existe une distinction entre une « enquête fédérale » et des « avocats du gouvernement fédéral posant des questions sur des activités potentiellement illégales ». J’utilisais le terme « enquête » dans un sens simple et profane. Je ne suis pas avocat et je n’ai aucune idée de ce qui compte officiellement comme « une enquête fédérale » à des fins juridiques. Ils m’ont posé des questions. Je leur ai donné des informations. C’est tout ce que je voulais dire par « enquête ».

Partager sur les réseaux :

Voir en ligne : Nos articles sur Intelligence Artificielle - IA -

   
   

Recommander cette page

Pas de licence spécifique (droits par défaut)

Un message, un commentaire ?

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

ConnexionS’inscriremot de passe oublié ?