codage humain des médias de nouvelles, Pew Research Center
codage humain des nouvelles médias
codage humain des données est beaucoup plus que cela puisse paraître: codeurs lire ou formés à l'étranger à travers un certain échantillon de la couverture médiatique et notez systématiquement ses traits importants. Les questions (ou variables) utilisées diffèrent en fonction de l'objectif du projet. Les questions vont de « ce qui est le sujet » à « est le traitement du sujet positif ou négatif. »
Pour toutes les études, il faut sélectionner l'échantillon de matière à examiner, ce qui est souvent plus difficile qu'il n'y paraît.
Plan de sondage
Le choix d'un échantillon implique à la fois l'accent sur la rigueur, la représentativité et la question purement pratique de disponibilité. En fonction de la portée et les objectifs d'un projet, nous pourrions coder chaque histoire dans une sortie de nouvelles données, ou nous pouvons utiliser différentes techniques de recherche pour trouver des articles spécifiques pertinents à notre analyse.
Parfois, la question de la recherche se concentre sur la compréhension de la portée de la couverture d'un point de vente particulier de nouvelles. Dans ces cas, nous code généralement chaque histoire - ou tout au moins un grand échantillon représentatif des histoires - contenues dans cette sortie au cours d'une période donnée. D'autres fois, la question de la recherche se concentre sur la façon dont un sujet de nouvelles, un événement ou un problème est couvert. Dans ces cas, nous utilisons généralement différentes techniques de recherche pour recueillir les documents pertinents.
Formation et tests intercoder
Avant tout codage réel, les chercheurs créent un répertoire détaillé pour chaque projet, qui énumère les variables à utiliser et les règles spécifiques applicables au contenu en question.
Pour un exemple de la spécificité de ces règles, envisager des études qui mesurent le ton de la couverture des nouvelles vers une personne ou un sujet. Cela consiste à évaluer la façon dont est construit le contenu d'une histoire via l'utilisation de citations, affirmations ou insinuations, qui se traduit par une couverture favorable, neutre ou négative. Pour mesurer le ton, les codeurs additionnez toutes les affirmations qui sont clairement à l'appui ou l'opposition. Des citations directes et indirectes sont comptés avec les affirmations faites par les journalistes eux-mêmes.
Tous les codeurs passent par la formation afin que les résultats sont cohérents. La formation dure souvent deux à trois semaines, selon la difficulté du codage.
Une fois que l'ensemble des histoires est identifié et la formation est terminée, l'équipe de programmeurs expérimentés commence à analyser chaque histoire selon les règles établies au cours de la formation, qui ont été peaufinées au fil des années de travail. Pour ajouter une couche supplémentaire d'assurance de la fiabilité, le contenu est réparti entre les codeurs pour assurer une diversité avec codeurs d'expériences interagir avec une gamme aussi large du contenu possible.
Afin d'assurer la fiabilité et la cohérence, nous effectuons des tests intercoder pour tous les codeurs impliqués dans un projet. Pour ce faire, nous choisissons une sélection aléatoire d'histoires de l'échantillon global (généralement de 5% à 7%) et demandez-leur chaque code de personne indépendamment. Nous comparons ensuite les résultats pour obtenir les taux d'entente pour toutes les variables. Le centre est conforme aux normes académiques rigoureuses, et nous publions que des variables où nous avons des taux d'accord de 80% ou plus (dans la plupart des cas, beaucoup plus élevé). Si nous les variables tester et trouver des taux inférieurs à 80%, nous continuons la formation, la clarification des règles et / ou la révision de la variable jusqu'à atteindre ce niveau dans les tests ultérieurs.