Onderzoek haalbaarheid AI factcheck module

Het project onderzoekt de haalbaarheid van een AI-module die claims in content kan extraheren en verifiëren op juistheid en relevantie met diverse databronnen.

Subsidie
€ 20.000
2023

Projectdetails

Inleiding

Met de komst van Chat GPT is het controleren van feiten steeds belangrijker. De vraag die echter rijst, is of de informatie wel juist is (lees facts/feiten) in de content en of dit op waarheid berust (bronnen).

Relevantie van Inhoud

Is daarnaast de content na een verloop van tijd nog relevant en komen deze nog overeen met feiten die zich “after the fact” hebben ontwikkeld?

Doel van het Onderzoek

Wij willen de technische- en economische haalbaarheid onderzoeken of de ontwikkeling van een dergelijke AI-module het mogelijk kan maken om:

  1. Dergelijke claims uit een dergelijk artikel te extraheren.
  2. Deze claims te verifiëren op basis van een variëteit aan (data) bronnen, afkomstig van:
    • Social media
    • Nieuwsbronnen
    • SIGINT
    • Rationele media
    • Transcripties
    • Video’s
    • Foto’s
    • Etc.

Financiële details & Tijdlijn

Financiële details

Subsidiebedrag€ 20.000

Tijdlijn

StartdatumOnbekend
EinddatumOnbekend
Subsidiejaar2023

Partners & Locaties

Projectpartners

  • xDNA B.V.penvoerder

Land(en)

Netherlands

Vergelijkbare projecten binnen MIT Haalbaarheid

Mkb-innovati...

Project POLIGEN-AI

Het project richt zich op het ontwikkelen van een betrouwbare "fact-based" chatbot om desinformatie te bestrijden en geïnformeerde beslissingen te ondersteunen, met aandacht voor technische en juridische haalbaarheid.

€ 20.000
Mkb-innovati...

Activating Business Intelligence (BI) data with AI: from data to info

Het project richt zich op het ontwikkelen van een AI-gebaseerd platform voor bedrijven om efficiënter inzichten uit data te verkrijgen, met aandacht voor technische haalbaarheid en marktpotentieel.

€ 20.000
Mkb-innovati...

Fake news detectie met Generative Artificial Intelligence

Het project onderzoekt de haalbaarheid van het gebruik van generative AI om fake news te detecteren door een classificatiemodel te trainen op echte en valse nieuwsartikelen.

€ 20.000
Mkb-innovati...

Combatting fake news: NFT videocontent validation.

Het project onderzoekt de technische en economische haalbaarheid van een innovatief authenticatieplatform voor videocontent met blockchain en NFT-technologie, resulterend in een go/no-go-beslissing.

€ 20.000
Mkb-innovati...

POTENTaiLIZER

Het project onderzoekt de haalbaarheid van een AI-product, POTENTaiLIZER, om MKB-bedrijven te ondersteunen bij het optimaliseren van hun bedrijfsvoering via data-analyse en strategische tips.

€ 20.000

Vergelijkbare projecten uit andere regelingen

ERC Starting...

Explainable and Robust Automatic Fact Checking

ExplainYourself aims to develop explainable automatic fact-checking methods using machine learning to enhance transparency and user trust through diverse, accurate explanations of model predictions.

€ 1.498.616
Mkb-innovati...

DeepDetectID

Het project ontwikkelt DeepDetectID, een schaalbaar AI-platform voor het detecteren van deepfakes in audio, video en foto's ter ondersteuning van identiteitsverificatie en veiligheid.

€ 200.000
Mkb-innovati...

AuthentiQ

Het project richt zich op het versterken van deepfake detectie en het combineren van biometrische checks voor veilige gebruikersidentificatie en -authenticatie.

€ 142.857
Mkb-innovati...

Onderwijsleerdoelen met AI koppelen aan leerinhoud

Het project ontwikkelt een AI-model om betrouwbare educatieve content automatisch te koppelen aan leerdoelen, waardoor het onderwijs efficiënter lesmateriaal kan vinden.

€ 105.016
Mkb-innovati...

Content Argus

X-CAGO en Amberscript ontwikkelen een AI-software om audio/video-content te converteren naar tekst en sentimentanalyse te vereenvoudigen, gericht op cultuur, media en publieke diensten.

€ 153.440