BACK
Ruim twee jaar geleden noemde Alexander Klöpping onze Bias Checker in zijn podcast POM.
Ruim twee jaar geleden noemde Alexander Klöpping onze Bias Checker in zijn podcast POM. Als trouwe luisteraar voelde dat toch als een hoogtepuntje in mijn eerste jaar bij &samhoud.
Je plakt er een tekst in en hij identificeert cognitieve biases. Gebaseerd op 86 wetenschappelijk onderbouwde biases, gecombineerd met AI. Toen ik hem bouwde werkten we met GPT-3.5. Dat model kon misschien 3 A4'tjes aan tekst tegelijk verwerken. Plus onze dataset die hij allemaal moest checken. Dat paste niet. Dus we moesten allerlei constructies bedenken om teksten in kleine stukjes door het model te halen en toch betrouwbare resultaten te krijgen. Het was puzzelen, maar het werkte.
Eind vorig jaar stopte hij ermee. Andere prioriteiten, dus het bleef even liggen. Laatst opgepakt met Claude Code. In een avond gefixt, verbeterd, weer live. Inmiddels draait hij op een model dat tientallen keren zoveel aankan. Al die constructies van toen zijn eigenlijk niet meer nodig.
Uit nieuwsgierigheid nog even de database geopend. Was benieuwd hoeveel het nog gebruikt werd. Bijna 5000 checks. Bijna 1000 e-mailadressen. 71 daarvan dit jaar. Terwijl hij al maanden niet werkte. Hadden we toch iets meer aandacht aan mogen besteden.
Link naar de Bias Checker en het POM-fragment in de comments.
More