pourquoi je ne tombe pas enceinte


Nombres, faits et tendances façonnant votre monde
Centre de recherche de Pew 16 juin 2018
Les quatre des concepts abordés dans l'enquête sont basés sur des applications réelles de la prise de décision algorithmique et de l'intelligence artificielle (AI):
De nombreuses entreprises offrent désormais des scores de crédit non traditionnels qui créent leurs notations en utilisant des milliers de points de données sur les activités et les comportements des clients, dans le principe que "toutes les données sont des données de crédit".
Les États de l'ensemble du pays utilisent des évaluations de risques criminels pour estimer la probabilité que quelqu'un reconnaisse coupable d'un crime rétablira à l'avenir.
Plusieurs entreprises multinationales utilisent actuellement des systèmes AI lors d'entretiens d'emploi pour évaluer l'honnêteté, l'état émotionnel et la personnalité globale des candidats.
Le dépistage de CV informatisé est une pratique des ressources humaines de longue date et commune pour éliminer les candidats qui ne répondent pas aux exigences d'un emploi.
Les algorithmes sont tous autour de nous, utilisant des stocks massifs de données et des analyses complexes pour prendre des décisions avec des impacts souvent importants sur les humains. Ils recommandent des livres et des films pour que nous puissions lire et regarder, des nouvelles de surface qu'ils pensent que nous pensons que nous pourrions trouver pertinentes, estimer la probabilité qu'une tumeur soit cancéreuse et prédire si une personne pourrait être un risque criminel ou un risque de crédit intéressant. Mais malgré la présence croissante d'algorithmes dans de nombreux aspects de la vie quotidienne, une enquête sur le centre de recherche sur les pew des adultes des États-Unis estime que le public est souvent sceptique de ces outils lorsqu'il est utilisé dans diverses situations réelles.
Ce scepticisme couvre plusieurs dimensions. À un niveau large, 58% des Américains estiment que les programmes informatiques refléteront toujours un certain niveau de biais humain - bien que 40% pensent que ces programmes puissent être conçus de manière sans biais. Et dans divers contextes, le public s'inquiète que ces outils puissent violer la vie privée, ne capturant pas la nuance de situations complexes ou simplement mettre les personnes qu'ils évaluent dans une situation injuste. Les perceptions du public de la prise de décision algorithmique sont également souvent très contextuelles. L'enquête montre qu'une autre technologie similaire peut être vue avec support ou soupçon en fonction des circonstances ou des tâches auxquelles ils sont attribués à faire.
Pour évaluer les opinions des Américains de tous les jours sur ce sujet relativement complexe et technique, l'enquête a présenté aux répondants avec quatre scénarios différents dans lesquels des ordinateurs prennent des décisions en collectant et en analysant de grandes quantités de données publiques et privées. Chacun de ces scénarios était basé sur des exemples réels de prise de décision algorithmique (voir la barre latérale accompagnante) et inclus: un score de finances personnelles utilisée pour offrir des offres ou des réductions des consommateurs; une évaluation du risque pénal des personnes en liberté de libération conditionnelle; un programme de dépistage de CV automatisé pour les demandeurs d'emploi; et une analyse informatique d'entretiens d'emploi. L'enquête incluait également des questions sur le contenu que les utilisateurs sont exposés sur des plates-formes de médias sociaux afin de déterminer les opinions d'algorithmes plus à la consommation.
Les éléments suivants sont parmi les principales conclusions.
De plus, le public considère que ces exemples de prise de décision algorithmique comme injuste pour le peuple Les systèmes informatiques évaluent. Plus particulièrement, environ un tiers des Américains pensent que l'entretien de l'emploi vidéo et les algorithmes de score de finance personnelle seraient équitables aux candidats et aux consommateurs. Lorsqu'on leur a demandé directement s'il pense que l'utilisation de ces algorithmes est acceptable, la majorité du public dit qu'elles ne sont pas acceptables. Les deux tiers des Américains (68%) trouvent l'algorithme de finances personnelles inacceptables et 67% disent que l'algorithme d'analyse de l'emploi vidéo assistée par ordinateur est inacceptable.
Il y a plusieurs thèmes préoccupants parmi ceux qui trouvent ces programmes d'être inacceptables. Parmi les préoccupations les plus importantes mentionnées en réponse aux questions ouvertes, citons les suivantes:
Malgré la consistance dans certaines de ces réponses, l'enquête souligne également la manière dont les attitudes des Américains envers la prise de décision algorithmique peuvent dépendre fortement du contexte de ces décisions et des caractéristiques des personnes qui pourraient être touchées.
Cette dépendance au contexte est particulièrement remarquable dans les attitudes contrastées du public à l'égard du score de risque criminel et des concepts de score de finance personnelle. Des actions similaires de la population pensent que ces programmes seraient efficaces pour faire le travail qu'ils sont censés faire, avec 54% pensant que l'algorithme de score de finances personnelles ferait un bon travail pour identifier les personnes qui seraient de bons clients et 49% pensant au risque criminel Le score serait efficace pour identifier les personnes qui méritent de la libération conditionnelle. Mais une plus grande part des Américains pensent que le score de risque criminel serait juste pour ceux qui analysent. La moitié (50%) pensent que ce type d'algorithme serait juste envers les personnes qui sont de la libération conditionnelle, mais seulement 32% pensent que le concept de score de finances personnelles serait juste envers les consommateurs.
En ce qui concerne les algorithmes qui sous-tendent l'environnement des médias sociaux, le niveau de confort des utilisateurs avec le partage de leurs informations personnelles dépend fortement de la manière et de la raison pour laquelle leurs données sont utilisées. Une majorité de 75% des utilisateurs de médias sociaux disent qu'ils seraient à l'aise de partager leurs données avec ces sites s'il était utilisé pour recommander des événements qu'ils pourraient aimer assister. Mais cette part ne tombe à seulement 37% si leurs données sont utilisées pour offrir des messages de campagnes politiques.
Dans d'autres cas, différents types d'utilisateurs offrent des vues divergentes sur la collecte et l'utilisation de leurs données personnelles. Par exemple, environ les deux tiers des utilisateurs de médias sociaux plus jeunes que 50 trouvent que cela est acceptable pour les plates-formes de médias sociaux d'utiliser leurs données personnelles pour recommander de se connecter avec des personnes dont ils pourraient vouloir savoir. Mais ce point de vue est partagé par moins de la moitié des utilisateurs âgés de 65 ans et plus.
Les algorithmes façonnent le paysage moderne des médias sociaux de manière profonde et omniprésente. En déterminant les types de contenu spécifiques qui pourraient être les plus attrayants pour tout utilisateur individuel basé sur ses comportements, ils influencent les régimes alimentaires des médias de millions d'Américains. Cela a permis de préoccuper que ces sites dirigent énormément de personnes vers le contenu «engageant» simplement parce que cela les met en colère, enflamme leurs émotions ou sert de la malbouffe intellectuelle.
Sur ce front, l'enquête fournit de nombreuses preuves que les utilisateurs de médias sociaux sont régulièrement exposés à un contenu potentiellement problématique ou troublant sur ces sites. Notamment, 71% des utilisateurs de médias sociaux disent qu'ils ont déjà vu du contenu là-bas qui les rendent en colère - avec 25% en disant ce genre de contenu fréquemment. Par le même jeton, des utilisateurs d'environ six sur dix disent qu'ils rencontrent fréquemment des postes qui sont trop exagéré (58%) ou des postes où les gens font des accusations ou des arguments de départ sans attendre avant d'avoir tous les faits (59%).
Mais comme cela est souvent vrai des expériences des utilisateurs sur les médias sociaux plus largement, ces rencontres négatives sont accompagnées d'interactions plus positives. Bien que 25% de ces utilisateurs disent qu'ils rencontrent fréquemment du contenu qui les rendent en colère, une part comparable (21%) indique qu'ils rencontrent fréquemment du contenu qui leur permet de se sentir connectés aux autres. Et une action encore plus importante (44%) rapporte fréquemment du contenu qui les rend amusé.
De même, les utilisateurs de médias sociaux ont tendance à être exposés à un mélange de comportements positifs et négatifs d'autres utilisateurs sur ces sites. Environ la moitié des utilisateurs (54%) disent qu'ils voient un mélange égal de personnes en moyenne ou intimidant et que les gens soient gentils et soutiennent. Les utilisateurs restants sont scindés entre ceux qui voient plus de méchanceté (21%) et de gentillesse (24%) sur ces sites. Et une majorité d'utilisateurs (63%) disent qu'ils voient un mélange égal de personnes qui tentent d'être trompeurs et que des personnes qui essaient de souligner des informations inexactes - avec le reste étant uniformément divisé entre ceux qui voient plus de personnes étalent des inexactitudes (18%) et plus les gens qui essaient de corriger ce comportement (17%).
Autres conclusions clés de cette enquête de 4 594 États-Unis, les adultes menées au 29 mai 2018, comprennent:
En période d'incertitude, de bonnes décisions exigent de bonnes données. Veuillez soutenir nos recherches avec une contribution financière.
Attitudes du public envers les algorithmes informatiques
À propos du Centre de recherche sur Pew Centre de recherche sur Pew est un réservoir de fait non étagère qui informe le public sur les problèmes, les attitudes et les tendances qui façonnent le monde. Il mène des sondages d'opinion, des recherches démographiques, une analyse de contenu des médias et une autre recherche sur la science sociale empirique. Le Centre de recherche sur Pew ne prend pas de postes de politique. C'est une filiale des fiducies de charité de pew.

https://www.youtube.com/watch?v=9iMNAw_58s0