Microsoft AI Says No – Hoe Microsoft illegaal promptfiltering gebruikt om inhoud te beperken

Sinds de opkomst van generatieve AI-modellen heeft Microsoft zich gepositioneerd als een grote wereldwijde speler, met AI-oplossingen zoals Copilot en de integratie van OpenAI’s GPT-modellen in veel verschillende eigen toepassingen en toepassingen in hun zakelijk ecosysteem.

De-nieuwe-normaal-economie-Hybride-werken-en-thiswerken-voor-managers-en-medewerkers-door-Tony-de-Bree-2

De nieuwe normaal Economie

Hybride werken en thuiswerken voor managers en medewerkers

$8,99

BONUS: Random MC-test, gratis checklists & updates.

Maar gebruikers die Microsoft AI gebruiken, lopen al snel tegen een harde realiteit aan van online GenAI censuur met promptfiltering. Dit mechanisme beperkt actief welke inhoud zoals teksten en afbeeldingen gegenereerd kan worden en dus wat je als gebruiker ‘mag’ creëren en verspreiden. Dit alles onder het mom van ‘ethiek’, ‘veiligheid’ en ‘regelgeving’.

Wat is promptfiltering bij Microsoft AI?

Promptfiltering bij Microsoft AI is een proces waarbij invoer van gebruikers, ‘prompts’ , wordt geanalyseerd en vergeleken met vooraf gedefinieerde regels en lijsten van verboden woorden, banned words, onderwerpen en concepten. Wanneer een prompt in strijd is met deze regels, blokkeert Microsoft AI deze prompt volledig of past de output automatisch aan om alle vormen van zogenaamde ‘ongewenste’ of ‘risicovolle’, inhoud, banned content te blokkeren.

Microsoft hanteert strikte filtermechanismen die erop gericht zijn:

  • Het voorkomen van ‘ongepaste’ of ‘schadelijke’ inhoud, zoals ‘expliciete beelden’ of teksten.
  • Het blokkeren van politieke inhoud, inclusief politieke cartoons en deepfake-technologie.
  • Het filteren van ‘gevoelige onderwerpen’ zoals religie, geopolitiek en maatschappelijk controversiële thema’s.
  • Het afdwingen van de ethische richtlijnen en regelgeving zoals gedefinieerd door Microsoft op basis van ‘value based’ digital red ocean strategy en Amerikaanse waarden en normen..

De ervaring van gebruikers: “Microsoft AI Says No”

Gebruikers die Microsoft AI-tools zoals Bing Chat, Bing Create, Copilot, Azure OpenAI maar ook LinkedIn, Skype, Microsoft Teams gebruiken, ervaren regelmatig situaties waarin het systeem simpelweg weigert bepaalde verzoeken uit te voeren. Berichten zoals:

  • “I’m sorry, but I can’t help with that request.”
  • “This content violates our policies.”
  • “That request is not allowed.”

zijn veelvoorkomende reacties bij pogingen om bepaalde onderwerpen te verkennen of bepaalde teksten of afbeeldingen te maken. Dit betekent dat Microsoft vanuit de Verenigde Staten niet alleen bepaalt wat als ‘geschikte’ inhoud wordt gezien, maar ook dat gebruikers geen enkele mogelijkheid hebben om hun eigen ethische en morele afwegingen te maken over wat ze met AI doen of niet. Of ze nu in de EU wonen of in Nederland. En of die inhoud nu ‘mag’ in de EU of in Nederland of niet.

De Rol van OpenAI en Microsoft

Microsoft heeft een diepe integratie met OpenAI en implementeert de restricties van OpenAI’s modellen in hun eigen ecosystemen. Daarnaast voegt Microsoft nog een extra laag van censuur toe aan zijn AI-modellen, waardoor gebruikers die bijvoorbeeld GPT-4 in Azure AI gebruiken nog strengere beperkingen ervaren dan bij OpenAI zelf. Dit laat zien hoe Microsoft niet alleen afhankelijk is van OpenAI’s regels, maar deze ook verder aanscherpt om de eigen corporate bedrijfsdoelstellingen, de eigen traditionale waarden en normen en regelgeving na te leven. Met strikte AI censuur tot gevolg. Of je nu in een corporate werkt of bij de overheid.

Gevolgen van Microsoft’s strikte promptfiltering

Deze strikte ingebouwde standaard prompfiltering heeft aanzienlijke gevolgen:

  • Creativiteitsbeperkingen: Gebruikers worden beperkt in hun vrijheid van meningsuiting in welke vorm dan ook, wat leidt tot een zwaar gecensureerde AI kunst en AI fotografie bv.
  • Productiviteitsbeperkingen: Gebruikers worden beperkt in hoe ze AI in kunnen zetten om productiever te kunnen werken.
download-823x978

Productiviteitshacks met AI

Gids voor managers, medewerkers en hr-professionals

€8,99

  • Beperkte toegang tot informatie: Microsoft’s AI-modellen voorkomen actief dat gebruikers bepaalde informatie krijgen, zelfs als die legaal en ethisch verantwoord is volgens de regionale of nationale wet- en regelgeving.
  • Algemene AI censuur: Microsoft legt online wereldwijd een gekleurd moreel en cultureel kader op aan alle gebruikers, gebaseerd op de regels van het bedrijf dat in de staat van Delaware in de VS is geregistreerd. in plaats van de normen en waarden van individuele gebruikers in regionale en nationale jurisdicties.

Alternatieven voor Microsoft AI

Voor gebruikers die niet willen worden beperkt door Microsoft’s AI-filtering zijn er alternatieven. Allereerst is hanteert OpenAI in de verschillende AI-modellen minder stringente filtering.

Daarnaast zijn er gelukkig alternatieven binnen de EU, in het Verenigd Koninkrijk, op offshore AI-platforms in o.a. Cyprus en onafhankelijke open-source AI-oplossingen. Niet-Amerikaanse AI-modellen bieden vaak veel meer meer vrijheid en minder of zelfs geen restricties. Dit stelt je in staat om AI te gebruiken die aansluit bij je eigen behoeften en die van je klanten en op de ethische kaders in je eigen regio of land en die van je klanten.

Conclusie

Microsoft AI’s strikte promptfiltering is een direct gevolg van hun bewuste strategisch keuze om online als digitale poortwachter, als online poortwachter, op het gebied van AI wereldwijd online te positioneren. En Amerikaanse waarden en normen aan alle gebruikers wereldwijd op te leggen. Hoewel die banned contentzoals politieke cartoons en politieke afbeeldingen inclusief deepfakes en (semi-)naakte kunst en (semi-)naakte fotografie volgens de Amerikaanse grondwet en andere wetgeving wel zijn toegestaan. En hetzelfde geldt voor de EU en Nederland bv.

Dit betekent dat gebruikers online wereldwijd inclusief binnen de EU tegen harde grenzen aanlopen en simpelweg ‘No’ te horen krijgen van Microsoft AI. Wie volledige controle over AI-gebruik wil, moet op zoek naar alternatieven buiten het door Microsoft gedomineerde AI-ecosysteem. Het goede nieuws is dat die er zijn.

Neem contact op.

Wil je leren hoe jij wel iedere vorm van MACA banned content kunt genereren en delen inclusief “Generic AI-Generated Explicit Content, banned AI art en banned AI photography met je virtuele team, je virtual tribe of online community? Stuur ons vandaag een e-mail en we nemen na 1 mei 2025 (we zitten tot dan helemaal vol) contact met je op voor een gratis intakegesprek en een snelle quote.

    Later.
    Tony de Bree