Default
Door Remote - 12 Apr 2026
Kunstmatige intelligentie is een diepe en ingewikkelde wereld. De wetenschappers die op dit gebied werken, vertrouwen vaak op jargon en jargon om uit te leggen waar ze aan werken. Als gevolg hiervan moeten we deze technische termen vaak gebruiken in onze berichtgeving over de kunstmatige intelligentie-industrie. Daarom dachten we dat het nuttig zou zijn om een woordenlijst samen te stellen met definities van enkele van de belangrijkste woorden en zinsneden die we in onze artikelen gebruiken.
We zullen deze woordenlijst regelmatig bijwerken om nieuwe vermeldingen toe te voegen, omdat onderzoekers voortdurend nieuwe methoden ontdekken om de grenzen van kunstmatige intelligentie te verleggen en tegelijkertijd opkomende veiligheidsrisico's te identificeren.
AGI
Kunstmatige algemene intelligentie, of AGI, is een vage term. Maar het verwijst over het algemeen naar AI die capabeler is dan de gemiddelde mens bij veel, zo niet de meeste, taken. OpenAI-CEO Sam Altman beschreef AGI onlangs als het “equivalent van een gemiddelde mens die je als collega zou kunnen inhuren.” Ondertussen definieert het charter van OpenAI AGI als “zeer autonome systemen die beter presteren dan mensen bij het meest economisch waardevolle werk.” Het begrip van Google DeepMind verschilt enigszins van deze twee definities; het laboratorium beschouwt AGI als “AI die bij de meeste cognitieve taken minstens even capabel is als mensen.” Verward? Maak je geen zorgen, dat geldt ook voor experts die voorop lopen op het gebied van AI-onderzoek.
AI-agent
Een AI-agent verwijst naar een tool die AI-technologieën gebruikt om namens u een reeks taken uit te voeren – die verder gaan dan wat een meer basale AI-chatbot zou kunnen doen – zoals het indienen van onkosten, het boeken van tickets of een tafel in een restaurant, of zelfs het schrijven en onderhouden van code. Zoals we echter eerder hebben uitgelegd, zijn er veel bewegende stukken in deze opkomende ruimte, dus ‘AI-agent’ kan voor verschillende mensen verschillende dingen betekenen. Er wordt ook nog steeds aan infrastructuur gebouwd om de beoogde capaciteiten te kunnen verwezenlijken. Maar het basisconcept impliceert een autonoom systeem dat gebruik kan maken van meerdere AI-systemen om taken uit meerdere stappen uit te voeren.
Keten van gedachten
Gegeven een eenvoudige vraag kan het menselijk brein antwoorden zonder er zelfs maar al te veel over na te denken – zaken als “welk dier is groter, een giraffe of een kat?” Maar in veel gevallen heb je vaak pen en papier nodig om tot het juiste antwoord te komen, omdat er tussenstappen zijn. Als een boer bijvoorbeeld kippen en koeien heeft, en samen hebben ze 40 koppen en 120 poten, moet je misschien een eenvoudige vergelijking opschrijven om tot het antwoord te komen (20 kippen en 20 koeien).
In een AI-context betekent gedachteketenredenering voor grote taalmodellen het opsplitsen van een probleem in kleinere, tussenliggende stappen om de kwaliteit van het eindresultaat te verbeteren. Het duurt meestal langer om een antwoord te krijgen, maar de kans is groter dat het antwoord correct is, vooral in een logische of codeercontext. Redeneringsmodellen zijn ontwikkeld op basis van traditionele grote taalmodellen en geoptimaliseerd voor gedachteketendenken dankzij versterkend leren.
(Zie: Groot taalmodel)
Techcrunch-evenement
Ontmoet uw volgende investeerder of portfolio-startup bij Disrupt
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu en bespaar tot $ 410.
Ontmoet uw volgende investeerder of portfolio-startup bij Disrupt
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu en bespaar tot $ 410.
San Francisco, CA
|
13-15 oktober 2026
REGISTREER NU
Berekenen
Hoewel het enigszins een multivalente term is, verwijst compute over het algemeen naar de vitale rekenkracht waarmee AI-modellen kunnen werken. Dit soort verwerking stimuleert de AI-industrie, waardoor deze de mogelijkheid krijgt om zijn krachtige modellen te trainen en in te zetten. De term is vaak een afkorting voor het soort hardware dat de rekenkracht levert – zaken als GPU’s, CPU’s, TPU’s en andere vormen van infrastructuur die de basis vormen van de moderne AI-industrie.
Diep leren
Een subset van zelfverbeterende machine learning waarbij AI-algoritmen worden ontworpen met een meerlaagse, kunstmatige neurale netwerkstructuur (ANN). Hierdoor kunnen ze complexere correlaties maken in vergelijking met eenvoudigere op machine learning gebaseerde systemen, zoals lineaire modellen of beslissingsbomen. De structuur van deep learning-algoritmen is geïnspireerd op de onderling verbonden paden van neuronen in het menselijk brein.
Deep learning AI-modellen zijn in staat om zelf belangrijke kenmerken in data te identificeren, in plaats van dat menselijke ingenieurs deze kenmerken moeten definiëren. De structuur ondersteunt ook algoritmen die van fouten kunnen leren en, door een proces van herhaling en aanpassing, hun eigen resultaten kunnen verbeteren. Deep learning-systemen hebben echter veel datapunten nodig om goede resultaten te behalen (miljoenen of meer). Het duurt doorgaans ook langer om ze te trainen in vergelijking met eenvoudigere machine learning-algoritmen, waardoor de ontwikkelingskosten vaak hoger zijn.
(Zie: Neuraal netwerk)
Verspreiding
Diffusie is de technologie die de kern vormt van veel kunst-, muziek- en tekstgenererende AI-modellen. Geïnspireerd door de natuurkunde ‘vernietigen’ diffusiesystemen langzaam de structuur van gegevens (bijvoorbeeld foto’s, liedjes, enzovoort) door er ruis aan toe te voegen totdat er niets meer over is. In de natuurkunde is diffusie spontaan en onomkeerbaar; suiker die in koffie wordt verspreid, kan niet in kubusvorm worden hersteld. Maar diffusiesystemen in AI streven ernaar een soort ‘omgekeerd diffusieproces’ te leren om de vernietigde gegevens te herstellen, waardoor ze de mogelijkheid krijgen om de gegevens uit ruis te herstellen.
Distillatie
Distillatie is een techniek die wordt gebruikt om kennis te extraheren uit een groot AI-model met een ‘leraar-leerling’-model. Ontwikkelaars sturen verzoeken naar een docentenmodel en leggen de resultaten vast. Antwoorden worden soms vergeleken met een dataset om te zien hoe nauwkeurig ze zijn. Deze resultaten worden vervolgens gebruikt om het leerlingmodel te trainen, dat is getraind om het gedrag van de leraar te benaderen.
Destillatie kan worden gebruikt om een kleiner, efficiënter model te creëren op basis van een groter model met minimaal destillatieverlies. Dit is waarschijnlijk hoe OpenAI GPT-4 Turbo heeft ontwikkeld, een snellere versie van GPT-4.
Hoewel alle AI-bedrijven intern gebruik maken van distillatie, kan het ook door sommige AI-bedrijven zijn gebruikt om grensmodellen in te halen. Distillatie van een concurrent is meestal in strijd met de servicevoorwaarden van AI API en chatassistenten.
Fijnafstemming
Dit verwijst naar de verdere training van een AI-model om de prestaties voor een specifiekere taak of gebied te optimaliseren dan voorheen een centraal punt van de training was – meestal door nieuwe, gespecialiseerde (dat wil zeggen taakgerichte) gegevens in te voeren.
Veel AI-startups nemen grote taalmodellen als uitgangspunt om een commercieel product te bouwen, maar proberen de bruikbaarheid voor een doelsector of taak te vergroten door eerdere trainingscycli aan te vullen met verfijning op basis van hun eigen domeinspecifieke kennis en expertise.
(Zie: Groottaalmodel [LLM])
GAN
Een GAN, of Generative Adversarial Network, is een soort machine learning-framework dat ten grondslag ligt aan enkele belangrijke ontwikkelingen in generatieve AI als het gaat om het produceren van realistische gegevens – inclusief (maar niet alleen) deepfake-tools. GAN's omvatten het gebruik van een paar neurale netwerken, waarvan er één gebruik maakt van zijn trainingsgegevens om een output te genereren die ter evaluatie aan het andere model wordt doorgegeven. Dit tweede discriminatormodel speelt dus de rol van een classificator van de output van de generator, waardoor deze in de loop van de tijd kan verbeteren.
De GAN-structuur is opgezet als een competitie (vandaar ‘tegenstrijdig’) – waarbij de twee modellen in wezen geprogrammeerd zijn om elkaar te overtreffen: de generator probeert zijn output voorbij de discriminator te krijgen, terwijl de discriminator werkt aan het opsporen van kunstmatig gegenereerde gegevens. Deze gestructureerde wedstrijd kan de AI-output optimaliseren om realistischer te zijn zonder de noodzaak van extra menselijke tussenkomst. Hoewel GAN's het beste werken voor beperktere toepassingen (zoals het produceren van realistische foto's of video's), in plaats van AI voor algemene doeleinden.
Hallucinatie
Hallucinatie is de voorkeursterm van de AI-industrie voor AI-modellen die dingen verzinnen – letterlijk informatie genereren die onjuist is. Het is duidelijk dat dit een groot probleem is voor de AI-kwaliteit.
Hallucinaties produceren GenAI-resultaten die misleidend kunnen zijn en zelfs kunnen leiden tot risico's in het echte leven – met potentieel gevaarlijke gevolgen (denk aan een gezondheidsvraag die schadelijk medisch advies oplevert). Dit is de reden waarom de kleine lettertjes van de meeste GenAI-tools gebruikers nu waarschuwen om door AI gegenereerde antwoorden te verifiëren, ook al zijn dergelijke disclaimers meestal veel minder prominent dan de informatie die de tools met één druk op de knop verstrekken.
Er wordt gedacht dat het probleem van AI’s die informatie fabriceren ontstaat als gevolg van lacunes in trainingsgegevens. Vooral voor GenAI voor algemene doeleinden – ook wel bekend als funderingsmodellen – lijkt dit moeilijk op te lossen. Er zijn eenvoudigweg niet genoeg gegevens beschikbaar om AI-modellen te trainen om alle vragen die we ons zouden kunnen stellen alomvattend op te lossen. TL;DR: we hebben God (nog) niet uitgevonden.
Hallucinaties dragen bij aan een impuls in de richting van steeds meer gespecialiseerde en/of verticale AI-modellen – d.w.z. domeinspecifieke AI’s die een beperktere expertise vereisen – als een manier om de kans op kennislacunes te verkleinen en de risico’s van desinformatie te verkleinen.
Gevolgtrekking
Inferentie is het proces waarbij een AI-model wordt uitgevoerd. Het zet een model los om voorspellingen te doen of conclusies te trekken uit eerder geziene gegevens. Voor alle duidelijkheid: gevolgtrekkingen kunnen niet plaatsvinden zonder training; een model moet patronen in een set gegevens leren voordat het effectief uit deze trainingsgegevens kan extrapoleren.
Veel soorten hardware kunnen gevolgtrekkingen uitvoeren, variërend van smartphoneprocessors tot krachtige GPU's tot op maat ontworpen AI-versnellers. Maar ze kunnen niet allemaal even goed modellen uitvoeren. Bij zeer grote modellen zou het eeuwen duren om voorspellingen te doen op bijvoorbeeld een laptop versus een cloudserver met geavanceerde AI-chips.
[Zie: Training]
Groot taalmodel (LLM)
Grote taalmodellen, of LLM's, zijn de AI-modellen die worden gebruikt door populaire AI-assistenten, zoals ChatGPT, Claude, Google's Gemini, Meta's AI Llama, Microsoft Copilot of Mistral's Le Chat. Wanneer u met een AI-assistent chat, communiceert u met een groot taalmodel dat uw verzoek rechtstreeks verwerkt of met behulp van verschillende beschikbare tools, zoals surfen op het web of codetolken.
AI-assistenten en LLM's kunnen verschillende namen hebben. GPT is bijvoorbeeld het grote taalmodel van OpenAI en ChatGPT is het AI-assistentproduct.
LLM's zijn diepe neurale netwerken gemaakt van miljarden numerieke parameters (of gewichten, zie hieronder) die de relaties tussen woorden en zinsdelen leren en een representatie van taal creëren, een soort multidimensionale kaart van woorden.
Deze modellen zijn gemaakt op basis van het coderen van de patronen die ze in miljarden boeken, artikelen en transcripties aantreffen. Wanneer u om een LLM vraagt, genereert het model het meest waarschijnlijke patroon dat bij de prompt past. Vervolgens evalueert het het meest waarschijnlijke volgende woord na het laatste, op basis van wat eerder is gezegd. Herhaal, herhaal en herhaal.
(Zie: Neuraal netwerk)
Geheugencache
Geheugencache verwijst naar een belangrijk proces dat de gevolgtrekking versterkt (het proces waarmee AI een antwoord op de vraag van een gebruiker genereert). In wezen is caching een optimalisatietechniek, ontworpen om gevolgtrekkingen efficiënter te maken. AI wordt uiteraard aangestuurd door wiskundige berekeningen met een hoog octaangehalte, en elke keer dat die berekeningen worden gemaakt, verbruiken ze meer energie. Caching is ontworpen om het aantal berekeningen dat een model moet uitvoeren te verminderen door bepaalde berekeningen op te slaan voor toekomstige gebruikersquery's en -bewerkingen. Er zijn verschillende soorten geheugencaching, hoewel een van de bekendere KV-caching (of sleutelwaardecaching) is. KV-caching werkt in op transformatoren gebaseerde modellen en verhoogt de efficiëntie, waardoor snellere resultaten worden behaald door de hoeveelheid tijd (en algoritmische arbeid) die nodig is om antwoorden op gebruikersvragen te genereren, te verminderen.
(Zie: gevolgtrekking)
Neuraal netwerk
Een neuraal netwerk verwijst naar de meerlagige algoritmische structuur die ten grondslag ligt aan deep learning – en, breder, aan de hele hausse aan generatieve AI-tools na de opkomst van grote taalmodellen.
Hoewel het idee om inspiratie te halen uit de nauw met elkaar verbonden paden van het menselijk brein als ontwerpstructuur voor algoritmen voor gegevensverwerking al dateert uit de jaren veertig, was het de veel recentere opkomst van grafische verwerkingshardware (GPU's) – via de videogame-industrie – die de kracht van deze theorie echt ontketende. Deze chips bleken zeer geschikt voor het trainen van algoritmen met veel meer lagen dan in eerdere tijdperken mogelijk was, waardoor op neurale netwerken gebaseerde AI-systemen veel betere prestaties konden bereiken op veel gebieden, waaronder stemherkenning, autonome navigatie en het ontdekken van medicijnen.
(Zie: Groottaalmodel [LLM])
RAMageddon
RAMageddon is de leuke nieuwe term voor een niet zo leuke trend die de technologie-industrie overspoelt: een steeds groter wordend tekort aan Random Access Memory, oftewel RAM-chips, die vrijwel alle technische producten aandrijven die we in ons dagelijks leven gebruiken. Terwijl de AI-industrie tot bloei is gekomen, kopen de grootste technologiebedrijven en AI-laboratoria – die allemaal strijden om de krachtigste en meest efficiënte AI – zoveel RAM om hun datacenters van stroom te voorzien dat er voor de rest van ons niet veel meer over is. En dat knelpunt in het aanbod betekent dat wat er overblijft steeds duurder wordt.
Dat omvat sectoren als gaming (waar grote bedrijven de prijzen voor consoles hebben moeten verhogen omdat het moeilijker is om geheugenchips voor hun apparaten te vinden), consumentenelektronica (waar geheugentekort de grootste daling in het aantal verkochte smartphones in meer dan tien jaar zou kunnen veroorzaken) en algemene bedrijfscomputers (omdat die bedrijven niet genoeg RAM kunnen krijgen voor hun eigen datacenters). De prijsstijging zal naar verwachting pas stoppen nadat het gevreesde tekort is geëindigd, maar helaas zijn er niet echt tekenen dat dit binnenkort zal gebeuren.
Opleiding
Het ontwikkelen van machine learning AI’s omvat een proces dat bekend staat als training. In eenvoudige bewoordingen verwijst dit naar gegevens die worden ingevoerd, zodat het model van patronen kan leren en nuttige resultaten kan genereren.
Op dit punt in de AI-stack kunnen de zaken een beetje filosofisch worden – aangezien de wiskundige structuur die als uitgangspunt wordt gebruikt voor de ontwikkeling van een leersysteem, voorafgaand aan de training, slechts een stel lagen en willekeurige getallen is. Alleen door training krijgt het AI-model echt vorm. In wezen is het het proces waarbij het systeem reageert op kenmerken in de gegevens, waardoor het de output kan aanpassen aan een nagestreefd doel – of dat nu het identificeren van afbeeldingen van katten is of het op verzoek produceren van een haiku.
Het is belangrijk op te merken dat niet alle AI training vereist. Op regels gebaseerde AI’s die zijn geprogrammeerd om handmatig vooraf gedefinieerde instructies te volgen – bijvoorbeeld lineaire chatbots – hoeven geen training te volgen. Dergelijke AI-systemen zullen echter waarschijnlijk meer beperkingen hebben dan (goed opgeleide) zelflerende systemen.
Toch kan training duur zijn omdat er veel input voor nodig is – en doorgaans is de hoeveelheid input die voor dergelijke modellen nodig is, in stijgende lijn.
Hybride benaderingen kunnen soms worden gebruikt om de ontwikkeling van modellen te bekorten en de kosten te helpen beheersen. Zoals het datagestuurd verfijnen van een op regels gebaseerde AI – wat betekent dat ontwikkeling minder data, rekenkracht, energie en algoritmische complexiteit vereist dan wanneer de ontwikkelaar helemaal opnieuw zou zijn begonnen met bouwen.
[Zie: gevolgtrekking]
Tokens
Als het gaat om mens-machinecommunicatie, zijn er enkele voor de hand liggende uitdagingen. Mensen communiceren met behulp van menselijke taal, terwijl AI-programma's taken uitvoeren en reageren op vragen via complexe algoritmische processen die worden geïnformeerd door gegevens. In hun eenvoudigste definitie vertegenwoordigen tokens de basisbouwstenen van mens-AI-communicatie, in die zin dat het afzonderlijke gegevenssegmenten zijn die zijn verwerkt of geproduceerd door een LLM.
Tokens worden gemaakt via een proces dat bekend staat als ‘tokenisatie’, waarbij ruwe gegevens worden opgedeeld en verfijnt in afzonderlijke eenheden die verteerbaar zijn voor een LLM. Net zoals een softwarecompiler menselijke taal vertaalt in binaire code die een computer kan verwerken, interpreteert tokenisatie menselijke taal voor een AI-programma via hun gebruikersvragen, zodat het een antwoord kan voorbereiden.
Er zijn verschillende soorten tokens, waaronder invoertokens (het soort dat moet worden gegenereerd als reactie op de vraag van een menselijke gebruiker), uitvoertokens (het soort dat wordt gegenereerd als de LLM reageert op het verzoek van de mens) en redeneringstokens, die langere, intensievere taken en processen met zich meebrengen die plaatsvinden als onderdeel van een gebruikersverzoek.
Bij enterprise AI bepaalt het tokengebruik ook de kosten. Omdat tokens gelijkwaardig zijn aan de hoeveelheid gegevens die door een model worden verwerkt, zijn ze ook het middel geworden waarmee de AI-industrie geld verdient aan haar diensten. De meeste AI-bedrijven brengen LLM-gebruik per token in rekening. Dus hoe meer tokens een bedrijf verbrandt terwijl het een AI-programma gebruikt (ChatGPT bijvoorbeeld), hoe meer geld het zal moeten betalen aan zijn AI-serviceprovider (OpenAI).
Breng het leren over
Een techniek waarbij een eerder getraind AI-model wordt gebruikt als uitgangspunt voor het ontwikkelen van een nieuw model voor een andere, maar typisch gerelateerde taak, waardoor kennis die is opgedaan in eerdere trainingscycli opnieuw kan worden toegepast.
Transfer learning kan efficiëntiebesparingen opleveren door de modelontwikkeling te verkorten. Het kan ook nuttig zijn als de gegevens voor de taak waarvoor het model wordt ontwikkeld enigszins beperkt zijn. Maar het is belangrijk op te merken dat de aanpak beperkingen kent. Modellen die afhankelijk zijn van transfer learning om algemene vaardigheden te verwerven, zullen waarschijnlijk training met aanvullende gegevens nodig hebben om goed te kunnen presteren in hun aandachtsgebied
(Zie: Fijnafstemming)
Gewichten
Gewichten vormen de kern van AI-training, omdat ze bepalen hoeveel belang (of gewicht) wordt gegeven aan verschillende kenmerken (of invoervariabelen) in de gegevens die worden gebruikt voor het trainen van het systeem – en daarmee de output van het AI-model vormgeven.
Met andere woorden: gewichten zijn numerieke parameters die bepalen wat het meest opvallend is in een dataset voor de gegeven trainingstaak. Ze bereiken hun functie door vermenigvuldiging toe te passen op invoer. Modeltraining begint doorgaans met gewichten die willekeurig worden toegewezen, maar naarmate het proces vordert, passen de gewichten zich aan naarmate het model probeert een resultaat te bereiken dat beter aansluit bij het doel.
Een AI-model voor het voorspellen van huizenprijzen dat is getraind op basis van historische vastgoedgegevens voor een doellocatie kan bijvoorbeeld gewichten bevatten voor kenmerken zoals het aantal slaapkamers en badkamers, of een woning vrijstaand of halfvrijstaand is, of er parkeergelegenheid is, een garage, enzovoort.
Uiteindelijk weerspiegelen de gewichten die het model aan elk van deze inputs toekent, hoeveel ze de waarde van een eigendom beïnvloeden, op basis van de gegeven dataset.
Dit artikel wordt regelmatig bijgewerkt met nieuwe informatie.
We zullen deze woordenlijst regelmatig bijwerken om nieuwe vermeldingen toe te voegen, omdat onderzoekers voortdurend nieuwe methoden ontdekken om de grenzen van kunstmatige intelligentie te verleggen en tegelijkertijd opkomende veiligheidsrisico's te identificeren.
AGI
Kunstmatige algemene intelligentie, of AGI, is een vage term. Maar het verwijst over het algemeen naar AI die capabeler is dan de gemiddelde mens bij veel, zo niet de meeste, taken. OpenAI-CEO Sam Altman beschreef AGI onlangs als het “equivalent van een gemiddelde mens die je als collega zou kunnen inhuren.” Ondertussen definieert het charter van OpenAI AGI als “zeer autonome systemen die beter presteren dan mensen bij het meest economisch waardevolle werk.” Het begrip van Google DeepMind verschilt enigszins van deze twee definities; het laboratorium beschouwt AGI als “AI die bij de meeste cognitieve taken minstens even capabel is als mensen.” Verward? Maak je geen zorgen, dat geldt ook voor experts die voorop lopen op het gebied van AI-onderzoek.
AI-agent
Een AI-agent verwijst naar een tool die AI-technologieën gebruikt om namens u een reeks taken uit te voeren – die verder gaan dan wat een meer basale AI-chatbot zou kunnen doen – zoals het indienen van onkosten, het boeken van tickets of een tafel in een restaurant, of zelfs het schrijven en onderhouden van code. Zoals we echter eerder hebben uitgelegd, zijn er veel bewegende stukken in deze opkomende ruimte, dus ‘AI-agent’ kan voor verschillende mensen verschillende dingen betekenen. Er wordt ook nog steeds aan infrastructuur gebouwd om de beoogde capaciteiten te kunnen verwezenlijken. Maar het basisconcept impliceert een autonoom systeem dat gebruik kan maken van meerdere AI-systemen om taken uit meerdere stappen uit te voeren.
Keten van gedachten
Gegeven een eenvoudige vraag kan het menselijk brein antwoorden zonder er zelfs maar al te veel over na te denken – zaken als “welk dier is groter, een giraffe of een kat?” Maar in veel gevallen heb je vaak pen en papier nodig om tot het juiste antwoord te komen, omdat er tussenstappen zijn. Als een boer bijvoorbeeld kippen en koeien heeft, en samen hebben ze 40 koppen en 120 poten, moet je misschien een eenvoudige vergelijking opschrijven om tot het antwoord te komen (20 kippen en 20 koeien).
In een AI-context betekent gedachteketenredenering voor grote taalmodellen het opsplitsen van een probleem in kleinere, tussenliggende stappen om de kwaliteit van het eindresultaat te verbeteren. Het duurt meestal langer om een antwoord te krijgen, maar de kans is groter dat het antwoord correct is, vooral in een logische of codeercontext. Redeneringsmodellen zijn ontwikkeld op basis van traditionele grote taalmodellen en geoptimaliseerd voor gedachteketendenken dankzij versterkend leren.
(Zie: Groot taalmodel)
Techcrunch-evenement
Ontmoet uw volgende investeerder of portfolio-startup bij Disrupt
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu en bespaar tot $ 410.
Ontmoet uw volgende investeerder of portfolio-startup bij Disrupt
Jouw volgende ronde. Uw volgende aanwerving. Uw volgende uitbraakmogelijkheid. Je vindt het op TechCrunch Disrupt 2026, waar meer dan 10.000 oprichters, investeerders en technologieleiders samenkomen voor drie dagen vol 250+ tactische sessies, krachtige introducties en marktbepalende innovatie. Registreer nu en bespaar tot $ 410.
San Francisco, CA
|
13-15 oktober 2026
REGISTREER NU
Berekenen
Hoewel het enigszins een multivalente term is, verwijst compute over het algemeen naar de vitale rekenkracht waarmee AI-modellen kunnen werken. Dit soort verwerking stimuleert de AI-industrie, waardoor deze de mogelijkheid krijgt om zijn krachtige modellen te trainen en in te zetten. De term is vaak een afkorting voor het soort hardware dat de rekenkracht levert – zaken als GPU’s, CPU’s, TPU’s en andere vormen van infrastructuur die de basis vormen van de moderne AI-industrie.
Diep leren
Een subset van zelfverbeterende machine learning waarbij AI-algoritmen worden ontworpen met een meerlaagse, kunstmatige neurale netwerkstructuur (ANN). Hierdoor kunnen ze complexere correlaties maken in vergelijking met eenvoudigere op machine learning gebaseerde systemen, zoals lineaire modellen of beslissingsbomen. De structuur van deep learning-algoritmen is geïnspireerd op de onderling verbonden paden van neuronen in het menselijk brein.
Deep learning AI-modellen zijn in staat om zelf belangrijke kenmerken in data te identificeren, in plaats van dat menselijke ingenieurs deze kenmerken moeten definiëren. De structuur ondersteunt ook algoritmen die van fouten kunnen leren en, door een proces van herhaling en aanpassing, hun eigen resultaten kunnen verbeteren. Deep learning-systemen hebben echter veel datapunten nodig om goede resultaten te behalen (miljoenen of meer). Het duurt doorgaans ook langer om ze te trainen in vergelijking met eenvoudigere machine learning-algoritmen, waardoor de ontwikkelingskosten vaak hoger zijn.
(Zie: Neuraal netwerk)
Verspreiding
Diffusie is de technologie die de kern vormt van veel kunst-, muziek- en tekstgenererende AI-modellen. Geïnspireerd door de natuurkunde ‘vernietigen’ diffusiesystemen langzaam de structuur van gegevens (bijvoorbeeld foto’s, liedjes, enzovoort) door er ruis aan toe te voegen totdat er niets meer over is. In de natuurkunde is diffusie spontaan en onomkeerbaar; suiker die in koffie wordt verspreid, kan niet in kubusvorm worden hersteld. Maar diffusiesystemen in AI streven ernaar een soort ‘omgekeerd diffusieproces’ te leren om de vernietigde gegevens te herstellen, waardoor ze de mogelijkheid krijgen om de gegevens uit ruis te herstellen.
Distillatie
Distillatie is een techniek die wordt gebruikt om kennis te extraheren uit een groot AI-model met een ‘leraar-leerling’-model. Ontwikkelaars sturen verzoeken naar een docentenmodel en leggen de resultaten vast. Antwoorden worden soms vergeleken met een dataset om te zien hoe nauwkeurig ze zijn. Deze resultaten worden vervolgens gebruikt om het leerlingmodel te trainen, dat is getraind om het gedrag van de leraar te benaderen.
Destillatie kan worden gebruikt om een kleiner, efficiënter model te creëren op basis van een groter model met minimaal destillatieverlies. Dit is waarschijnlijk hoe OpenAI GPT-4 Turbo heeft ontwikkeld, een snellere versie van GPT-4.
Hoewel alle AI-bedrijven intern gebruik maken van distillatie, kan het ook door sommige AI-bedrijven zijn gebruikt om grensmodellen in te halen. Distillatie van een concurrent is meestal in strijd met de servicevoorwaarden van AI API en chatassistenten.
Fijnafstemming
Dit verwijst naar de verdere training van een AI-model om de prestaties voor een specifiekere taak of gebied te optimaliseren dan voorheen een centraal punt van de training was – meestal door nieuwe, gespecialiseerde (dat wil zeggen taakgerichte) gegevens in te voeren.
Veel AI-startups nemen grote taalmodellen als uitgangspunt om een commercieel product te bouwen, maar proberen de bruikbaarheid voor een doelsector of taak te vergroten door eerdere trainingscycli aan te vullen met verfijning op basis van hun eigen domeinspecifieke kennis en expertise.
(Zie: Groottaalmodel [LLM])
GAN
Een GAN, of Generative Adversarial Network, is een soort machine learning-framework dat ten grondslag ligt aan enkele belangrijke ontwikkelingen in generatieve AI als het gaat om het produceren van realistische gegevens – inclusief (maar niet alleen) deepfake-tools. GAN's omvatten het gebruik van een paar neurale netwerken, waarvan er één gebruik maakt van zijn trainingsgegevens om een output te genereren die ter evaluatie aan het andere model wordt doorgegeven. Dit tweede discriminatormodel speelt dus de rol van een classificator van de output van de generator, waardoor deze in de loop van de tijd kan verbeteren.
De GAN-structuur is opgezet als een competitie (vandaar ‘tegenstrijdig’) – waarbij de twee modellen in wezen geprogrammeerd zijn om elkaar te overtreffen: de generator probeert zijn output voorbij de discriminator te krijgen, terwijl de discriminator werkt aan het opsporen van kunstmatig gegenereerde gegevens. Deze gestructureerde wedstrijd kan de AI-output optimaliseren om realistischer te zijn zonder de noodzaak van extra menselijke tussenkomst. Hoewel GAN's het beste werken voor beperktere toepassingen (zoals het produceren van realistische foto's of video's), in plaats van AI voor algemene doeleinden.
Hallucinatie
Hallucinatie is de voorkeursterm van de AI-industrie voor AI-modellen die dingen verzinnen – letterlijk informatie genereren die onjuist is. Het is duidelijk dat dit een groot probleem is voor de AI-kwaliteit.
Hallucinaties produceren GenAI-resultaten die misleidend kunnen zijn en zelfs kunnen leiden tot risico's in het echte leven – met potentieel gevaarlijke gevolgen (denk aan een gezondheidsvraag die schadelijk medisch advies oplevert). Dit is de reden waarom de kleine lettertjes van de meeste GenAI-tools gebruikers nu waarschuwen om door AI gegenereerde antwoorden te verifiëren, ook al zijn dergelijke disclaimers meestal veel minder prominent dan de informatie die de tools met één druk op de knop verstrekken.
Er wordt gedacht dat het probleem van AI’s die informatie fabriceren ontstaat als gevolg van lacunes in trainingsgegevens. Vooral voor GenAI voor algemene doeleinden – ook wel bekend als funderingsmodellen – lijkt dit moeilijk op te lossen. Er zijn eenvoudigweg niet genoeg gegevens beschikbaar om AI-modellen te trainen om alle vragen die we ons zouden kunnen stellen alomvattend op te lossen. TL;DR: we hebben God (nog) niet uitgevonden.
Hallucinaties dragen bij aan een impuls in de richting van steeds meer gespecialiseerde en/of verticale AI-modellen – d.w.z. domeinspecifieke AI’s die een beperktere expertise vereisen – als een manier om de kans op kennislacunes te verkleinen en de risico’s van desinformatie te verkleinen.
Gevolgtrekking
Inferentie is het proces waarbij een AI-model wordt uitgevoerd. Het zet een model los om voorspellingen te doen of conclusies te trekken uit eerder geziene gegevens. Voor alle duidelijkheid: gevolgtrekkingen kunnen niet plaatsvinden zonder training; een model moet patronen in een set gegevens leren voordat het effectief uit deze trainingsgegevens kan extrapoleren.
Veel soorten hardware kunnen gevolgtrekkingen uitvoeren, variërend van smartphoneprocessors tot krachtige GPU's tot op maat ontworpen AI-versnellers. Maar ze kunnen niet allemaal even goed modellen uitvoeren. Bij zeer grote modellen zou het eeuwen duren om voorspellingen te doen op bijvoorbeeld een laptop versus een cloudserver met geavanceerde AI-chips.
[Zie: Training]
Groot taalmodel (LLM)
Grote taalmodellen, of LLM's, zijn de AI-modellen die worden gebruikt door populaire AI-assistenten, zoals ChatGPT, Claude, Google's Gemini, Meta's AI Llama, Microsoft Copilot of Mistral's Le Chat. Wanneer u met een AI-assistent chat, communiceert u met een groot taalmodel dat uw verzoek rechtstreeks verwerkt of met behulp van verschillende beschikbare tools, zoals surfen op het web of codetolken.
AI-assistenten en LLM's kunnen verschillende namen hebben. GPT is bijvoorbeeld het grote taalmodel van OpenAI en ChatGPT is het AI-assistentproduct.
LLM's zijn diepe neurale netwerken gemaakt van miljarden numerieke parameters (of gewichten, zie hieronder) die de relaties tussen woorden en zinsdelen leren en een representatie van taal creëren, een soort multidimensionale kaart van woorden.
Deze modellen zijn gemaakt op basis van het coderen van de patronen die ze in miljarden boeken, artikelen en transcripties aantreffen. Wanneer u om een LLM vraagt, genereert het model het meest waarschijnlijke patroon dat bij de prompt past. Vervolgens evalueert het het meest waarschijnlijke volgende woord na het laatste, op basis van wat eerder is gezegd. Herhaal, herhaal en herhaal.
(Zie: Neuraal netwerk)
Geheugencache
Geheugencache verwijst naar een belangrijk proces dat de gevolgtrekking versterkt (het proces waarmee AI een antwoord op de vraag van een gebruiker genereert). In wezen is caching een optimalisatietechniek, ontworpen om gevolgtrekkingen efficiënter te maken. AI wordt uiteraard aangestuurd door wiskundige berekeningen met een hoog octaangehalte, en elke keer dat die berekeningen worden gemaakt, verbruiken ze meer energie. Caching is ontworpen om het aantal berekeningen dat een model moet uitvoeren te verminderen door bepaalde berekeningen op te slaan voor toekomstige gebruikersquery's en -bewerkingen. Er zijn verschillende soorten geheugencaching, hoewel een van de bekendere KV-caching (of sleutelwaardecaching) is. KV-caching werkt in op transformatoren gebaseerde modellen en verhoogt de efficiëntie, waardoor snellere resultaten worden behaald door de hoeveelheid tijd (en algoritmische arbeid) die nodig is om antwoorden op gebruikersvragen te genereren, te verminderen.
(Zie: gevolgtrekking)
Neuraal netwerk
Een neuraal netwerk verwijst naar de meerlagige algoritmische structuur die ten grondslag ligt aan deep learning – en, breder, aan de hele hausse aan generatieve AI-tools na de opkomst van grote taalmodellen.
Hoewel het idee om inspiratie te halen uit de nauw met elkaar verbonden paden van het menselijk brein als ontwerpstructuur voor algoritmen voor gegevensverwerking al dateert uit de jaren veertig, was het de veel recentere opkomst van grafische verwerkingshardware (GPU's) – via de videogame-industrie – die de kracht van deze theorie echt ontketende. Deze chips bleken zeer geschikt voor het trainen van algoritmen met veel meer lagen dan in eerdere tijdperken mogelijk was, waardoor op neurale netwerken gebaseerde AI-systemen veel betere prestaties konden bereiken op veel gebieden, waaronder stemherkenning, autonome navigatie en het ontdekken van medicijnen.
(Zie: Groottaalmodel [LLM])
RAMageddon
RAMageddon is de leuke nieuwe term voor een niet zo leuke trend die de technologie-industrie overspoelt: een steeds groter wordend tekort aan Random Access Memory, oftewel RAM-chips, die vrijwel alle technische producten aandrijven die we in ons dagelijks leven gebruiken. Terwijl de AI-industrie tot bloei is gekomen, kopen de grootste technologiebedrijven en AI-laboratoria – die allemaal strijden om de krachtigste en meest efficiënte AI – zoveel RAM om hun datacenters van stroom te voorzien dat er voor de rest van ons niet veel meer over is. En dat knelpunt in het aanbod betekent dat wat er overblijft steeds duurder wordt.
Dat omvat sectoren als gaming (waar grote bedrijven de prijzen voor consoles hebben moeten verhogen omdat het moeilijker is om geheugenchips voor hun apparaten te vinden), consumentenelektronica (waar geheugentekort de grootste daling in het aantal verkochte smartphones in meer dan tien jaar zou kunnen veroorzaken) en algemene bedrijfscomputers (omdat die bedrijven niet genoeg RAM kunnen krijgen voor hun eigen datacenters). De prijsstijging zal naar verwachting pas stoppen nadat het gevreesde tekort is geëindigd, maar helaas zijn er niet echt tekenen dat dit binnenkort zal gebeuren.
Opleiding
Het ontwikkelen van machine learning AI’s omvat een proces dat bekend staat als training. In eenvoudige bewoordingen verwijst dit naar gegevens die worden ingevoerd, zodat het model van patronen kan leren en nuttige resultaten kan genereren.
Op dit punt in de AI-stack kunnen de zaken een beetje filosofisch worden – aangezien de wiskundige structuur die als uitgangspunt wordt gebruikt voor de ontwikkeling van een leersysteem, voorafgaand aan de training, slechts een stel lagen en willekeurige getallen is. Alleen door training krijgt het AI-model echt vorm. In wezen is het het proces waarbij het systeem reageert op kenmerken in de gegevens, waardoor het de output kan aanpassen aan een nagestreefd doel – of dat nu het identificeren van afbeeldingen van katten is of het op verzoek produceren van een haiku.
Het is belangrijk op te merken dat niet alle AI training vereist. Op regels gebaseerde AI’s die zijn geprogrammeerd om handmatig vooraf gedefinieerde instructies te volgen – bijvoorbeeld lineaire chatbots – hoeven geen training te volgen. Dergelijke AI-systemen zullen echter waarschijnlijk meer beperkingen hebben dan (goed opgeleide) zelflerende systemen.
Toch kan training duur zijn omdat er veel input voor nodig is – en doorgaans is de hoeveelheid input die voor dergelijke modellen nodig is, in stijgende lijn.
Hybride benaderingen kunnen soms worden gebruikt om de ontwikkeling van modellen te bekorten en de kosten te helpen beheersen. Zoals het datagestuurd verfijnen van een op regels gebaseerde AI – wat betekent dat ontwikkeling minder data, rekenkracht, energie en algoritmische complexiteit vereist dan wanneer de ontwikkelaar helemaal opnieuw zou zijn begonnen met bouwen.
[Zie: gevolgtrekking]
Tokens
Als het gaat om mens-machinecommunicatie, zijn er enkele voor de hand liggende uitdagingen. Mensen communiceren met behulp van menselijke taal, terwijl AI-programma's taken uitvoeren en reageren op vragen via complexe algoritmische processen die worden geïnformeerd door gegevens. In hun eenvoudigste definitie vertegenwoordigen tokens de basisbouwstenen van mens-AI-communicatie, in die zin dat het afzonderlijke gegevenssegmenten zijn die zijn verwerkt of geproduceerd door een LLM.
Tokens worden gemaakt via een proces dat bekend staat als ‘tokenisatie’, waarbij ruwe gegevens worden opgedeeld en verfijnt in afzonderlijke eenheden die verteerbaar zijn voor een LLM. Net zoals een softwarecompiler menselijke taal vertaalt in binaire code die een computer kan verwerken, interpreteert tokenisatie menselijke taal voor een AI-programma via hun gebruikersvragen, zodat het een antwoord kan voorbereiden.
Er zijn verschillende soorten tokens, waaronder invoertokens (het soort dat moet worden gegenereerd als reactie op de vraag van een menselijke gebruiker), uitvoertokens (het soort dat wordt gegenereerd als de LLM reageert op het verzoek van de mens) en redeneringstokens, die langere, intensievere taken en processen met zich meebrengen die plaatsvinden als onderdeel van een gebruikersverzoek.
Bij enterprise AI bepaalt het tokengebruik ook de kosten. Omdat tokens gelijkwaardig zijn aan de hoeveelheid gegevens die door een model worden verwerkt, zijn ze ook het middel geworden waarmee de AI-industrie geld verdient aan haar diensten. De meeste AI-bedrijven brengen LLM-gebruik per token in rekening. Dus hoe meer tokens een bedrijf verbrandt terwijl het een AI-programma gebruikt (ChatGPT bijvoorbeeld), hoe meer geld het zal moeten betalen aan zijn AI-serviceprovider (OpenAI).
Breng het leren over
Een techniek waarbij een eerder getraind AI-model wordt gebruikt als uitgangspunt voor het ontwikkelen van een nieuw model voor een andere, maar typisch gerelateerde taak, waardoor kennis die is opgedaan in eerdere trainingscycli opnieuw kan worden toegepast.
Transfer learning kan efficiëntiebesparingen opleveren door de modelontwikkeling te verkorten. Het kan ook nuttig zijn als de gegevens voor de taak waarvoor het model wordt ontwikkeld enigszins beperkt zijn. Maar het is belangrijk op te merken dat de aanpak beperkingen kent. Modellen die afhankelijk zijn van transfer learning om algemene vaardigheden te verwerven, zullen waarschijnlijk training met aanvullende gegevens nodig hebben om goed te kunnen presteren in hun aandachtsgebied
(Zie: Fijnafstemming)
Gewichten
Gewichten vormen de kern van AI-training, omdat ze bepalen hoeveel belang (of gewicht) wordt gegeven aan verschillende kenmerken (of invoervariabelen) in de gegevens die worden gebruikt voor het trainen van het systeem – en daarmee de output van het AI-model vormgeven.
Met andere woorden: gewichten zijn numerieke parameters die bepalen wat het meest opvallend is in een dataset voor de gegeven trainingstaak. Ze bereiken hun functie door vermenigvuldiging toe te passen op invoer. Modeltraining begint doorgaans met gewichten die willekeurig worden toegewezen, maar naarmate het proces vordert, passen de gewichten zich aan naarmate het model probeert een resultaat te bereiken dat beter aansluit bij het doel.
Een AI-model voor het voorspellen van huizenprijzen dat is getraind op basis van historische vastgoedgegevens voor een doellocatie kan bijvoorbeeld gewichten bevatten voor kenmerken zoals het aantal slaapkamers en badkamers, of een woning vrijstaand of halfvrijstaand is, of er parkeergelegenheid is, een garage, enzovoort.
Uiteindelijk weerspiegelen de gewichten die het model aan elk van deze inputs toekent, hoeveel ze de waarde van een eigendom beïnvloeden, op basis van de gegeven dataset.
Dit artikel wordt regelmatig bijgewerkt met nieuwe informatie.

