Despite the war Ukraine remains a strong supplier of IT personnel

Om Artificial Intelligence in een applicatie te implementeren, heb je slimme mensen nodig. Het maken van een AI-applicatie is geen eenvoudig proces, vooral niet als je wilt dat het betrouwbaar is. Ook wil je voorkomen dat je per ongeluk een ongewenste bias creëert.

Algoritmische vooringenomenheid kan je parten spelen 

Een systeem dat bevooroordeeld is, werkt niet correct, het geeft geen goede resultaten. De kwaliteit van een AI-systeem hangt volledig af van de combinatie van de algoritmes en de kwaliteit van de data. In wezen is een algoritme niets anders dan een eindige reeks instructies om een doel te bereiken (1). Machine learning bias, ook wel algoritme bias of AI bias genoemd, is een fenomeen dat optreedt wanneer een algoritme resultaten produceert die systemisch bevooroordeeld zijn als gevolg van foutieve aannames in het machine learning-proces. Maar er is ook een risico dat de gegevens een bias veroorzaken. Cognitieve vooroordelen zijn systematische denkfouten, meestal geërfd door culturele en persoonlijke ervaringen, die leiden tot vervormingen van percepties bij het nemen van beslissingen. En hoewel gegevens misschien objectief lijken, worden gegevens verzameld en geanalyseerd door mensen en kunnen ze dus bevooroordeeld zijn (2) .

Om bias in het systeem te voorkomen is het gebruik van hoogwaardige data essentieel. Maar ook bij het maken van algoritmen moet bias worden voorkomen. De oplossing voor AI-bias in modellen? Zet goed opgeleide mensen aan het roer om te beslissen wanneer ze wel of geen echte acties moeten ondernemen op basis van een voorspelling van machine learning. Verklaarbaarheid en transparantie zijn van cruciaal belang om mensen in staat te stellen AI te begrijpen. (3) .

Wat zit er in de black box, het managen van complexiteit

AI-systemen zijn van nature complex. Een deel van de complexiteit komt voort uit het compromis in de concurrentie tussen twee of meer dominante mechanismen in een systeem, resulterend in een complexe dynamische structuur. (4) Aangezien deze systemen gegevenspatronen leren en beslissingen nemen op basis van wat ze hebben geleerd, is het een uitdaging om uit te leggen waarom het systeem een specifieke actie of beslissing heeft genomen. Beeldclassificatiemodellen kunnen bijvoorbeeld worden getraind om specifieke patronen in afbeeldingen zoals gezichten, objecten, verkeersborden, etc. te herkennen, maar het is niet eenvoudig te voorspellen waarom een bepaald model een specifieke voorspelling deed. Het black box-probleem kan worden opgelost door technieken zoals regularisatie en Bayesiaanse optimalisatie te gebruiken om modellen beter interpreteerbaar en betrouwbaar te maken voor de gegevens die ze gebruiken en de beslissingen die ze nemen op basis van die gegevens. (5)

Conclusie

Om een goed werkende AI-applicatie te kunnen maken is veel kennis nodig. Kennis op het gebied van bijvoorbeeld data science. Hoe verzamel, verwerk en beoordeel je de data die als grondstof voor het systeem worden gebruikt? Maar ook kennis op het gebied van het ontwikkelen, testen en evalueren van algoritmen. Ten slotte is ook kennis en ervaring nodig om gebruikersgerichte, betrouwbare software te ontwikkelen en te bouwen.

Hoe slimmer de specialisten die aan de AI-applicatie werken, hoe beter de applicatie. Dit geldt voor alle software, maar zeker voor AI-software. Hulp nodig bij het samenstellen van een team van slimme developers? Informeer gerust naar de mogelijkheden die Team4Code u biedt.

Sources:

  1. Simon Frase University 
  2. TechTarget.com
  3. Yale Insights
  4. Science direct
  5. Orient