Live News

Er zijn maar weinig durfkapitaalbedrijven die agressiever op AI hebben ingezet dan Sequoia Capital, en de ontwikkeling daarvan vertraagt ​​niet...

Circle Internet Group wordt geconfronteerd met een class action-rechtszaak onder leiding van een Drift Protocol-investeerder, die beweert dat het e...

Bitcoin (BTC) lijkt op koers om de komende weken $90.000 te bereiken, aangezien walvissen de afgelopen weken ongeveer 20 keer het dagelijkse nieuwe...

17/04/26

Volg ons:

Uw AI-chats kunnen in de rechtszaal tegen u worden gebruikt: advocatenkantoren zijn in rep en roer

Uw AI-chats kunnen in de rechtszaal tegen u worden gebruikt: advocatenkantoren zijn in rep en roer
Default Door Remote - 16 Apr 2026
In het kort

Een federale rechtbank oordeelde dat AI-chats geen wettelijke privileges hebben omdat Claude geen wettelijke licentie heeft.

Nu passen grote advocatenkantoren hun strategieën dienovereenkomstig aan, ook al zijn de juridische opvattingen tegenstrijdig.

Enterprise AI-tools die onder leiding van een advocaat worden gebruikt, kunnen nog steeds in aanmerking komen voor bescherming.

Twee maanden geleden oordeelde een federale rechter in New York dat de privégesprekken van een fraudeverdachte met Claude van Anthropic eerlijk spel waren voor de aanklagers. Nu is de juridische sector nog steeds bezig met het verwerken van wat dat betekent – ​​en dat gaat zo snel.

Meer dan een dozijn grote Amerikaanse advocatenkantoren hebben sindsdien cliëntenadviezen uitgegeven waarin wordt gewaarschuwd dat gesprekken met AI-chatbots zoals Claude en ChatGPT geen wettelijke bescherming bieden als ze juridische kwesties raken. Sommigen zijn nog verder gegaan: bedrijven integreren deze waarschuwing nu rechtstreeks in de contracten die zij met hun klanten ondertekenen voordat de vertegenwoordiging zelfs maar begint.

Volgens Reuters heeft de New Yorkse firma Sher Tremonte – die regelmatig beklaagden van witteboordencriminelen vertegenwoordigt – tekst toegevoegd aan een opdrachtovereenkomst uit maart waarin staat dat “openbaarmaking van geprivilegieerde communicatie aan een AI-platform van derden een afstand kan betekenen van het privilege tussen advocaat en cliënt.” Er wordt aangenomen dat het een van de eerste bedrijven is die een rechterlijke uitspraak omzet in een formele contractuele verplichting voor klanten.

"We zeggen tegen onze cliënten: u moet hier voorzichtig te werk gaan", zei Alexandria Gutiérrez Swette, advocaat bij het in New York gevestigde Kobre & Kim, tegen Reuters.

Andere bedrijven haasten zich nu om vangrails te plaatsen. Reuters meldt dat O'Melveny & Myers en anderen klanten hebben verteld alleen ‘gesloten’ AI-systemen van bedrijfsniveau te gebruiken, waarbij ze erkennen dat zelfs zakelijke AI op dit gebied grotendeels ongetest is in de rechtbank.

Debevoise & Plimpton gingen nog een stap verder met tactisch advies: als een advocaat een cliënt specifiek opdracht geeft een AI-tool te gebruiken, moet de cliënt dit in de chatbotprompt zelf zeggen. Het bedrijf stelde voor om te schrijven: "Ik doe dit onderzoek in opdracht van de raadsman van X-rechtszaken." Het idee lijkt de voorwaarden te scheppen voor een beroep op de Kovel-doctrine, die het advocaat-cliënt privilege kan uitbreiden naar niet-advocaten die als advocaat-agent werken.

De uitspraak die de praktijk opschudde. De urgentie gaat terug tot de Verenigde Staten tegen Heppner, die in februari werd uitgesproken door rechter Jed Rakoff van het zuidelijke district van New York. Bradley Heppner, de voormalige voorzitter van het failliete financiële dienstverlener GWG Holdings, was aangeklaagd wegens vijf federale aanklachten, waaronder effectenfraude en bankfraude. Nadat hij een dagvaarding van de grand jury had ontvangen, gebruikte hij Claude van Anthropic om zijn verdediging in kaart te brengen, waarbij hij 31 documenten opleverde die de FBI later uit zijn huis in beslag nam.

Rechter Rakoff oordeelde dat deze documenten om drie redenen niet konden worden afgeschermd: Claude is geen advocaat, het eigen privacybeleid van Anthropic behoudt zich het recht voor om gebruikersgegevens te delen met derden, waaronder overheidstoezichthouders, en Heppner handelde onafhankelijk in plaats van op aanwijzing van zijn advocaten. Er zou geen enkele advocaat-cliëntrelatie kunnen bestaan, schreef de rechter, tussen een AI-gebruiker en een platform als Claude.

De uitspraak was het eerste schriftelijke advies in zijn soort over AI en het privilege van advocaat en cliënt in de Verenigde Staten. Het was ook een wake-up call voor een beroepsgroep die stilletjes had toegekeken hoe cliënten zich tot chatbots wendden voor juridische begeleiding, zonder na te denken over wat er gebeurt als die gesprekken in een rechtszaal belanden.

Rakoff zelf liet die deur openstaan. Hij merkte tijdens de Heppner-hoorzitting op dat de raadsman de beklaagde had opgedragen Claude te gebruiken, dat de AI 'aantoonbaar zou hebben gefunctioneerd op een manier die lijkt op een hoogopgeleide professional die kan optreden als advocaat-agent binnen de bescherming van het advocaat-cliënt privilege.' Die lijn is nu een soort levensader voor bedrijven die nieuwe AI-protocollen ontwerpen.

Het hoflandschap is nog niet helemaal geregeld. In de zaak Warner v. Gilbarco oordeelde een rechtbank bijvoorbeeld dat de ChatGPT-gesprekken van een zelfvertegenwoordiger beschermd waren als werkproduct, omdat AI-tools ‘tools zijn, geen personen’ en het delen van informatie met software niet hetzelfde is als het openbaar maken ervan aan een tegenstander.

Een rechtbank in Colorado versterkte die logica op 30 maart in Morgan v. V2X, waarbij ook het AI-werkproduct van een pro-procederende partij werd beschermd, hoewel het verder ging door de eiser te bevelen openbaar te maken welke AI-tool hij gebruikte en te voorkomen dat vertrouwelijk ontdekkingsmateriaal werd ingevoerd in platforms die datatraining mogelijk maken.

Het patroon krijgt vorm: als u een vertegenwoordigde partij bent die zelf heeft besloten een AI-chatbot voor consumenten te gebruiken, wordt u blootgesteld. Als u uzelf vertegenwoordigt in een civiele zaak, heeft u mogelijk meer dekking. Het verschil tussen deze twee scenario’s is nu een van de scherpere breuklijnen in het Amerikaanse bewijsrecht.

Justin Ellis van MoloLamken vertelde Reuters dat meer uitspraken uiteindelijk zullen verduidelijken wanneer AI-chats als bewijs kunnen worden gebruikt. Tot die tijd duikt de versie van die duidelijkheid van de advocatuur op in opdrachtbrieven en e-mails van cliënten, en in adviezen die twee jaar geleden vreemd zouden hebben geleken: denk goed na over wat je in een chatbot typt, want iemand anders kan het lezen.

Het Los Angeles Superior Court test afzonderlijk AI-tools voor rechters om samenvattingen van zaken te behandelen en uitspraken op te stellen – dezelfde technologie die vanaf de rechtbank de juridische workflows binnendringt, terwijl advocaten zich inspannen om deze vanaf de cliëntzijde te beheren. Decrypt heeft eerder ook aandacht besteed aan op privacy gerichte AI-alternatieven die het centraliseren van gespreksgegevens vermijden, een productcategorie waarvan de pitch zojuist een belangrijke testcase uit de praktijk heeft gekregen.

Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!