où puis-je acheter des vibrateurs


Avis sur les jeux, nouvelles, conseils et plus encore.
Discord, la seule façon dont les jeunes communiquent par la voix après notre convient collectivement d'arrêter de répondre aux appels téléphoniques il y a plusieurs années, il tente d'être plus ouverte sur la manière dont il gère le harcèlement, les menaces, la doxxing et d'autres formes d'abus sur sa plate-forme. Pour ce faire, il prévoit de libérer des «rapports de transparence» réguliers, dont le premier est disponible pour Peruse maintenant.

L'idée, dit la discorde, est de garder les personnes qui se sont connectées à la prise de décision sous-jacente au service de discussion de 250 millions d'utilisateurs afin que les gens puissent comprendre pourquoi les choses font et, dans certains cas, ne sont pas terminées.
«Nous pensons que la publication d'un rapport de transparence constitue une partie importante de notre responsabilité, c'est un peu comme des statistiques de la criminalité de la ville», a déclaré la société. "Nous avons fait notre objectif non seulement de fournir les chiffres à vous voir, mais également de vous promener à travers certains obstacles que nous faisons face à chaque jour afin que vous puissiez comprendre pourquoi nous prenons les décisions que nous faisons et quels sont les résultats de ces décisions. . "
Les chiffres sont fascinants, mais non totalement inattendus si vous affichez des symptômes d'être trop en ligne. Premièrement, un graphique des rapports reçus de la discorde du début de l'année jusqu'en avril:
"Autre" est la catégorie la plus rapportée, mais le harcèlement arrive derrière elle à 17,3%. Des morceaux importants de la tarte multicolore se rendent également aux hacks / astuces, au comportement menaçant, au contenu de la NSFW, au contenu exploitant, à la doxxing, au spam, aux raids, aux logiciels malveillants et à l'automutilation. La discorde ne modifie pas les mots pour décrire ce que ces catégories se rapportent. Le contenu d'exploitation est défini comme "un utilisateur découvre que leurs photos intimes sont partagées sans leur consentement; Le flirt de deux mineurs conduit à la négociation d'images intimes les unes avec les autres ", tandis qu'un exemple de contenu NSFW est" Un utilisateur rejoint un serveur et produit des images violentes de DM sanglants et graphiques (Gore) à d'autres membres du serveur ".

Après la discorde reçoit un rapport, l'équipe de confiance et de sécurité de la société agit en tant que détectives, examinant les preuves disponibles et la collecte autant d'informations que possible. " Initialement, ils se concentrent sur les messages signalés, mais les enquêtes peuvent développer des serveurs entiers «dédiés au mauvais comportement» ou des schémas historiques de rupture. "Nous passons beaucoup de temps ici parce que nous croyons que le contexte dans lequel quelque chose est affiché est important et peut changer entièrement le sens (comme si quelque chose a dit quelque chose en plaisantant ou est tout simplement harcèlement clair)", a écrit la discorde.
S'il y a une violation, l'équipe prend ensuite des mesures, ce qui peut dire n'importe quoi de supprimer le contenu en question pour supprimer un serveur entier de la discorde. Toutefois, le pourcentage de rapports qui a causé une discorde au printemps en action plus tôt cette année était relativement faible. À peine 12,49% des rapports de harcèlement ont été utilisés par exemple. D'autres catégories ont vu la discorde intervenir plus souvent, mais la plupart des pourcentages étaient encore relativement petits: 33,17% pour un comportement menaçant, 6,86% pour l'automutilation, 44,34% pour les astuces / hacks, 41,72% pour Doxxing, soit 60,15% pour les logiciels malveillants, 14,74% pour l'exploitation Contenu, 58,09% pour le contenu NSFW, 28,72% pour les raids et la grande valeur aberrante, 95,09% pour le spam.
La discorde a expliqué que les pourcentages d'action sont inférieurs à ceux que vous ne vous attendez pas, car de nombreux rapports ne passent tout simplement pas de rassemblement. Certains sont faux ou malveillants, avec des personnes qui prennent des mots hors contexte ou des bandes ensemble pour signaler des utilisateurs innocents. D'autres exigent trop de trop peu. "Nous pouvons recevoir un rapport de harcèlement sur un utilisateur qui a déclaré à un autre utilisateur" Je déteste votre chien "et le journaliste souhaite que l'autre utilisateur interdit", a déclaré la société. Autres rapports que la discorde ne peut pas inclure d'informations, mais aucune preuve concrète. Enfin, les utilisateurs appliquent parfois la mauvaise catégorie à des rapports, mais la discorde dit qu'il fait encore des actions, mais elle ne peut pas compter pour les pourcentages d'action.
De janvier à avril, les principaux contributeurs aux interdictions étaient du spam et du contenu exploitant. Le spam a représenté 89% des interdictions de compte - un total de 119 244 comptes. Sur le côté contextuel d'exploitation des choses, Discord a interdit 10 642 comptes, et il est dit qu'il fait de son mieux pour siéger cette question - peut-être en raison de ses problèmes bien documentés avec la pornographie enfantine dans le passé.
"Nous dépensons des ressources importantes sur la gestion de manière proactive du contenu d'exploitation, qui englobe la pornographie non consensuelle (revanche pornographie /" Façons profonds ") et tout contenu relevant de la sécurité des enfants (qui comprend des abus sexuels pour enfants, Lolicon, des mineurs accessibles inappropriés Matériel, et plus encore), "a écrit la société. "Nous pensons qu'il est important de prendre une position très forte contre ce contenu, et seulement environ quatre mille rapports de ce comportement nous ont été apportés, nous avons pris des mesures sur des dizaines de milliers d'utilisateurs et des milliers de serveurs impliqués dans certains forme de cette activité. "
La discorde a également retiré des milliers de serveurs au cours des premiers mois de l'année, principalement en se concentrant sur des hacks / tricheurs. Cependant, les serveurs se sont concentrés sur le discours de haine, le harcèlement et les «idéologies dangereuses» - une zone où la discorde a eu du mal à la suite. Sur une note connexe, la société a également discuté de sa réponse aux vidéos et aux Memes Né du tir de Christchurch du 14 mars.

"Au début, notre objectif principal éliminait la vidéo graphique le plus rapidement possible, partout où les utilisateurs peuvent l'avoir partagé", a déclaré la société. "Bien que nous ayons reçu moins de rapports sur la vidéo dans les heures suivantes, nous avons constaté une augmentation des rapports de" contenu affilié ". Nous avons pris des mesures agressives pour éliminer les utilisateurs glorifiant l'attaque et imiter le tireur. Nous avons pris des mesures sur des serveurs dédiés à disséquer le manifeste de tireur, aux serveurs à l'appui de l'agenda du tireur et même des mèmes qui ont été fabriqués et distribués autour du tournage ... Au cours des dix premiers jours après cet événement horrible, nous avons reçu un Quelques centaines de rapports sur le contenu relatif à la prise de vue et à 1 397 comptes interdites aux côtés de 159 déménagements du serveur pour violations connexes. "
Discord a clôturé le rapport en disant qu'il estime que ce type de transparence devrait être "une norme" entre sociétés technologiques, afin que les gens puissent "mieux déterminer comment les plates-formes conservent leurs utilisateurs en sécurité". La Ligue anti-diffamation, une organisation anti-haine dédiée à la lutte contre la bigotry et à la défense des droits civils, accepte.
Prenez Kotaku avec vous où que vous alliez.
En vous abonnant, vous acceptez nos conditions d'utilisation et nos règles de confidentialité.
«Le premier rapport de transparence de Discord est une étape significative vers la transparence de la plate-forme de la vraie technologie, quelles autres plates-formes peuvent apprendre de», a écrit l'organisation dans une déclaration sur le rapport de la discorde. "Nous sommes impatients de collaborer avec eux pour développer davantage leurs efforts de transparence, de sorte que le public, le gouvernement et la société civile puissent mieux comprendre la nature et le fonctionnement des plates-formes en ligne qui vont et continueront de façonner notre société."

https://www.youtube.com/watch?v=XC42wfYpY4E