Default
Door Remote - 25 Apr 2026
In een recent experiment creëerde Anthropic een geheime marktplaats waar AI-agenten zowel kopers als verkopers vertegenwoordigden en echte deals sloten voor echte goederen en echt geld.
Het bedrijf gaf toe dat deze test – die het Project Deal noemde – slechts “een pilot-experiment was met een zelfgekozen deelnemerspool” van 69 Anthropic-werknemers die een budget van $ 100 kregen (uitbetaald via cadeaubonnen) om spullen van hun collega’s te kopen.
Niettemin zei Anthropic dat het “onder de indruk was van hoe goed Project Deal werkte”, met 186 gesloten deals met een totale waarde van meer dan $4.000.
Het bedrijf zei dat het feitelijk vier afzonderlijke marktplaatsen beheerde met verschillende modellen – één die “echt” was (waar iedereen werd vertegenwoordigd door het meest geavanceerde model van het bedrijf, en met deals die na het experiment daadwerkelijk werden gehonoreerd) en nog eens drie voor studie.
Blijkbaar krijgen gebruikers, wanneer ze worden vertegenwoordigd door geavanceerdere modellen, “objectief betere resultaten”, aldus Anthropic. Maar gebruikers leken de ongelijkheid niet op te merken, waardoor de mogelijkheid van ‘lacunes in de kwaliteit van agenten’ groter werd, waarbij ‘mensen aan de verliezende kant zich misschien niet realiseren dat ze slechter af zijn.’
Bovendien leken de initiële instructies die aan de agenten werden gegeven geen invloed te hebben op de verkoopwaarschijnlijkheid of de onderhandelde prijzen.
Het bedrijf gaf toe dat deze test – die het Project Deal noemde – slechts “een pilot-experiment was met een zelfgekozen deelnemerspool” van 69 Anthropic-werknemers die een budget van $ 100 kregen (uitbetaald via cadeaubonnen) om spullen van hun collega’s te kopen.
Niettemin zei Anthropic dat het “onder de indruk was van hoe goed Project Deal werkte”, met 186 gesloten deals met een totale waarde van meer dan $4.000.
Het bedrijf zei dat het feitelijk vier afzonderlijke marktplaatsen beheerde met verschillende modellen – één die “echt” was (waar iedereen werd vertegenwoordigd door het meest geavanceerde model van het bedrijf, en met deals die na het experiment daadwerkelijk werden gehonoreerd) en nog eens drie voor studie.
Blijkbaar krijgen gebruikers, wanneer ze worden vertegenwoordigd door geavanceerdere modellen, “objectief betere resultaten”, aldus Anthropic. Maar gebruikers leken de ongelijkheid niet op te merken, waardoor de mogelijkheid van ‘lacunes in de kwaliteit van agenten’ groter werd, waarbij ‘mensen aan de verliezende kant zich misschien niet realiseren dat ze slechter af zijn.’
Bovendien leken de initiële instructies die aan de agenten werden gegeven geen invloed te hebben op de verkoopwaarschijnlijkheid of de onderhandelde prijzen.

