METHODOLOGIE

Notre methodologie

Comment OpenTruth verifie les discours politiques

Nous ne jugeons pas le discours politique. Nous le structurons en donnees.

OpenTruth est une infrastructure automatisee de verification factuelle. Notre pipeline analyse les videos de discours politiques, debats parlementaires et interventions mediatiques pour en extraire, verifier et noter les affirmations factuelles.

Classification des affirmations

11 types d'affirmations (I1-I11) : Attribution, Evenement, Definition factuelle, Interpretation, Juridique, Scientifique, Statistique, Comparatif, Predictif/Promesse, Historique, Causal

24 themes (D1-D24) : Politique, Economie, Sante, Environnement, etc.

Quand une affirmation releve de plusieurs types, nous retenons celui qui determine la strategie de verification.

1/6

Ingestion et transcription

Chaque video est transcrite automatiquement (YouTube Transcript API ou OpenAI Whisper). Le texte brut est segmente en unites thematiques coherentes par detection automatique de changement de sujet.

2/6

Extraction des affirmations

Des agents d'intelligence artificielle (GPT-5) identifient les affirmations verifiables dans chaque segment. Chaque affirmation est classifiee selon notre taxonomie de 11 types et 24 themes.

3/6

Recherche de sources

Pour chaque affirmation, nos agents recherchent au minimum 4 sources independantes en suivant une hierarchie de fiabilite des institutions publiques aux medias.

4/6

Evaluation de la correspondance

Chaque paire affirmation-source est evaluee selon trois dimensions de qualite : independance, proximite a la source primaire et qualite methodologique.

5/6

Scoring NLI

Un modele de traitement du langage (mDeBERTa-v3, multilingue) evalue automatiquement la coherence logique entre chaque affirmation et ses sources.

6/6

Verdicts

Chaque affirmation recoit un verdict sur une echelle a 8 niveaux, de Vrai a Satire, base sur les scores NLI combines et la fiabilite des sources.

Recherche de sources

Pour chaque affirmation, nos agents recherchent au minimum 4 sources independantes en suivant une hierarchie de fiabilite :

Institutions publiques

95%

gouv.fr, admin.ch, europa.eu

Publications scientifiques

90%

PubMed, CNRS, universites

Bases de donnees officielles

85%

INSEE, Eurostat, OFS

Medias

60%

AFP, Reuters, Le Monde, RTS

ONG et think tanks

55%

Amnesty, IFRI

Nous privilegions systematiquement les sources primaires. Les sources anonymes ou non verifiables sont exclues.

Evaluation de la correspondance

Independance

La source est-elle independante du sujet traite ?

Proximite a la source primaire

Source primaire (1), secondaire (2), ou tertiaire (3) ?

Qualite methodologique

La methodologie est-elle transparente et verifiable ?

La correspondance est classifiee en : confirme, contredit, partiel, ou sans donnees.

Scoring NLI

Natural Language Inference

Un modele de traitement du langage (mDeBERTa-v3, multilingue) evalue automatiquement la coherence logique entre chaque affirmation et ses sources. Le score combine :

1

Le resultat NLI (entailment/contradiction/neutral)

2

La fiabilite de la source (ponderee selon la hierarchie G1)

3

La pertinence semantique (similarite cosinus des embeddings)

Verdicts

Chaque affirmation recoit un verdict sur une echelle a 8 niveaux :

VraiH1.1

Confirme par au moins 2 sources fiables concordantes

Plutot vraiH1.2

Globalement confirme avec des nuances mineures

MelangeH1.3

Contient des elements vrais et faux

TrompeurH1.4

Techniquement exact mais contexte absent ou deforme

FauxH1.5

Contredit par les sources fiables

Non verifiableH1.6

Impossible a confirmer ou infirmer avec les sources disponibles

OpinionH1.7

Jugement de valeur, non verifiable factuellement

SatireH1.8

Contenu humoristique/satirique identifie

Transparence et limites

Ce que nous faisons

  • Nous publions toutes les sources utilisees avec leurs URLs
  • Nous appliquons les memes standards a tous les acteurs politiques
  • Nos verdicts sont interoperables avec le standard ClaimReview (schema.org/Google)

Ce que nous ne faisons pas

  • Nous ne prenons pas position politiquement
  • Nous ne censurons ni ne recommandons de censurer
  • Nous ne pretendons pas a l'infaillibilite — nos modeles ont des limites connues

Limites connues

  • La detection de claims "partiellement vrais" est notre plus grand defi technique
  • Les sources en langues non-couvertes (hors FR/EN/DE) peuvent etre manquees
  • Le pipeline est optimise pour le discours politique suisse et francais

Corrections

Si vous identifiez une erreur dans nos verifications, vous pouvez nous contacter a contact[at]opentruth[dot]ch

Nous nous engageons a :

  • Corriger toute erreur verifiee dans les 48h
  • Publier une note de correction visible sur la verification concernee
  • Documenter les corrections dans un registre annuel public