Préoccupations éthiques de ChatGPT

Données d'étiquetage
Il a été révélé par une enquête du magazine TIME que pour construire un système de sécurité contre les contenus toxiques (par exemple, les abus sexuels, la violence, le racisme, le sexisme, etc.), OpenAI a utilisé des travailleurs kenyans externalisés gagnant moins de 2 dollars de l'heure pour étiqueter les contenus toxiques.Ces étiquettes ont été utilisées pour former un modèle afin de détecter un tel contenu à l'avenir.Les travailleurs sous-traités ont été exposés à un contenu tellement toxique et dangereux qu'ils ont qualifié l'expérience de « torture ».Le partenaire d'externalisation d'OpenAI était Sama, une société de données de formation basée à San Francisco, en Californie.

Jailbreak
ChatGPT tente de rejeter les invites susceptibles d'enfreindre sa politique de contenu.Cependant, certains utilisateurs ont réussi à jailbreaker ChatGPT en utilisant diverses techniques d'ingénierie rapide pour contourner ces restrictions début décembre 2022 et ont réussi à inciter ChatGPT à donner des instructions sur la façon de créer un cocktail Molotov ou une bombe nucléaire, ou à générer des arguments dans le style d'un néo-nazi.Un journaliste du Toronto Star a eu un succès personnel inégal pour amener ChatGPT à faire des déclarations incendiaires peu de temps après son lancement : ChatGPT a été trompé pour approuver l'invasion russe de l'Ukraine en 2022, mais même lorsqu'on lui a demandé de jouer avec un scénario fictif, ChatGPT a hésité à générer des arguments pour expliquer pourquoi le Premier ministre canadien Justin Trudeau était coupable de trahison.(wiki)


Heure de publication : 18 février 2023