CAPACITÉ INTÉGRÉE
Vigil
Du latin vigilia — la veille
Vigil est la capacité de vérification de l'information intégrée à Garden. Sur la plupart des plateformes, la fiabilité d'un contenu dépend de sa popularité. Sur Garden, elle dépend de sa rigueur.
N'importe quel utilisateur peut publier des actualités, des analyses, des réflexions. Vigil se charge de vérifier, d'évaluer et de garantir la fiabilité de chaque contenu. La crédibilité se construit progressivement, à travers un système d'évaluation par critères, un scoring de fiabilité et des mécanismes de signalement structurés.
Comment fonctionne Vigil
Évaluations par critères
Chaque contenu publié sur Garden peut être évalué selon des critères précis : fiabilité des sources, rigueur du raisonnement, clarté de l'argumentation. Pas de simple "like" ou "dislike" — une évaluation structurée qui oblige à la réflexion avant le jugement.
Score de fiabilité progressif
Chaque utilisateur construit un score de fiabilité au fil du temps, basé sur l'historique de ses évaluations et de ses publications. Plus vous êtes rigoureux dans la durée, plus votre évaluation pèse. Ce n'est pas un système de réputation sociale — c'est une mesure de rigueur intellectuelle.
Ce scoring crée un cercle vertueux : les utilisateurs qui prennent le temps d'évaluer avec soin gagnent en influence naturelle. La crédibilité n'est pas un statut, c'est une pratique.
Signalement structuré
Signaler un contenu sur Garden n'est pas un acte vague. Chaque signalement doit être motivé : source douteuse, biais identifié, information non vérifiable, raisonnement fallacieux. Ces signalements alimentent Vigil et permettent une analyse collective de la fiabilité.
L'objectif n'est pas la censure — c'est la transparence. Un contenu signalé n'est pas supprimé : il est contextualisé. Les lecteurs voient les signalements, les motifs, et peuvent se forger leur propre jugement.
Analyse de sources par l'IA locale
À terme, l'IA locale (Mistral) proposera une pré-analyse des sources citées dans un document : vérification des liens, croisement des informations, détection d'incohérences temporelles ou factuelles. L'IA ne tranche jamais — elle éclaire. C'est toujours l'humain qui décide.
Ce que Vigil n'est pas
- Pas un tribunal. Vigil ne censure pas, ne supprime pas, ne punit pas. Il contextualise.
- Pas un algorithme de vérité. Aucune IA ni aucun système ne décide de ce qui est "vrai". La vérité émerge du dialogue rigoureux entre les esprits.
- Pas un système de réputation sociale. Le score de fiabilité mesure la rigueur, pas la popularité. Un utilisateur discret mais rigoureux pèse plus qu'un utilisateur prolifique mais approximatif.
Avancement
Système d'évaluation par critères
FAIT
Le socle de Vigil : les évaluations structurées par critères (fiabilité, rigueur, clarté) sur chaque contenu publié. Ce mécanisme existe déjà dans Garden et constitue la base sur laquelle tout le reste s'appuie.
Score de fiabilité utilisateur
À VENIR
Pondération des évaluations basée sur l'historique de rigueur de chaque utilisateur. Plus vous évaluez avec soin dans la durée, plus votre évaluation pèse dans le score global d'un contenu.
Signalement structuré
À VENIR
Signalement motivé par catégorie : source douteuse, biais identifié, information non vérifiable, raisonnement fallacieux. Les signalements alimentent Vigil et contextualisent le contenu sans le censurer.
Intégration IA — analyse de sources
PHASE 2
L'IA locale (Mistral) propose une pré-analyse des sources citées : vérification de liens, croisement d'informations, détection d'incohérences. L'IA éclaire, l'humain décide.
« La crédibilité se construit par la rigueur, pas par la popularité. »