Governance

Etika AI v QA: GDPR, halucinace, transparentnost

AI v QA nie je len technický problém — je aj governance problém. Keď váš tím začne používať Claude Code alebo GitHub Copilot, posielate dáta na externé servery. To je v regulovaných odvetviach (bankovníctvo, zdravotníctvo, poisťovníctvo) otázka pre právny a compliance tím, nie pre senior QA engineera.

Tento článok pokrýva 3 hlavné riziká a ako ich mitigovať.

Riziko 1: Únik produkčných dát

Scenár: tester kopíruje do Claude Code prompta reálny dataset, aby AI vedel analyzovať „prečo tento používateľ nevie dokončiť checkout". V logu Anthropic sa teraz nachádza meno, email, adresa reálneho zákazníka.

Mitigácia:

  • Anthropic / OpenAI enterprise plán má garanciu, že dáta nejdú do trénovania. Ale stále sú uložené v logoch.
  • Self-hosted alternatíva — LLM-y ako Llama alebo Mistral bežiace on-premise. Drahé, ale pre highly-regulated data jediná cesta.
  • Data sanitization layer — pred poslaním do AI beži anonymize.py, ktorý nahrádza PII regex-ami alebo ML klasifikátorom. My používame Microsoft Presidio.
  • Prompt guidelines — tím má interný dokument „čo nikdy nekopírovať do AI". Staff training.

Riziko 2: Halucinácie

AI dá výstup, ktorý vyzerá autoritatívne, ale je nepravdivý. V teste to môže vyzerať tak:

// AI hallucinated selector — tento element neexistuje
cy.get('[data-qa="premium-badge"]').should('be.visible');

// AI hallucinated API response
cy.intercept('GET', '/api/users', { total: 42, users: [/* vymyslené */] });

Test prejde v mockovanom prostredí, ale v produkcii zlyhá. Horšie: test ani nespadne, len nekryje to, čo mal kryť.

Mitigácia:

  • Vždy spustit test v reálnom staging prostredí pred merge.
  • Human review — AI nenahradí review, dopĺňa ho.
  • Negative review — pri dôležitých testoch spýtaj druhý AI (iný model) na „čo môže byť zle". Disagreement = red flag.
  • Coverage overovanie — ak test prechádza, ale bug v danej oblasti stále unikne → test nestačil na ten scenár.

Riziko 3: Neauditovateľnosť

Regulátor sa pýta: „Prečo tento test zlyhal v 14:32 a bol schválený v 14:35?" Ak váš QA workflow bol „AI upravila a ja som klikol merge", nemáte dobrú odpoveď.

Mitigácia:

  • Versioned prompts — každý AI prompt, ktorý upravil test alebo kód, je verziovaný v git.
  • AI-generated commit messages oddeliť od human commit messages. V PR template: „[AI-assisted]" tag.
  • Audit log — každý AI nástroj s enterprise plánom (Claude Enterprise, Copilot Business) ponúka audit log API. Sťahuj raz denne, uchovaj 2 roky.
  • Human-in-the-loop signoff — pri regulovaných zmenách (napr. testy dotýkajúce sa finančných výpočtov) povinný podpis senior engineera.

Regulované odvetvia — konkrétne požiadavky

Odvetvie Kľúčová regulácia Dopad na AI v QA
BankingPSD2, DORA, GDPRSelf-hosted LLM alebo enterprise contract s data residency v EU
ZdravotníctvoHIPAA, GDPR, EHDSPHI nesmie ísť do externej AI; rigorózny anonymization pipeline
PojišťovnictvíSolvency II, GDPRAI pre regresiu OK, AI pre risk engine logic problematická
Školství (detské dáta)COPPA ekvivalent, GDPRNikdy reálne detské dáta do AI

Praktické checklist pre QA lead-a

  1. Máme signed DPA (data processing agreement) s AI vendorom? (Anthropic, OpenAI, GitHub — áno, dostanete po signup ako Enterprise.)
  2. Používame enterprise plán s „do not train" flagom?
  3. Máme prompt guideline dokument a tím bol tréningom?
  4. PII anonymization layer je nasadený pred AI volaniami?
  5. Audit log sa archivuje aspoň 2 roky?
  6. Security team schválil AI workflow v písomnom stanovisku?

Záver

Etika AI v QA nie je obmedzenie — je to predpoklad používania. Tímy, ktoré to preskakujú, nahromadia dlh, ktorý sa ukáže v audite. Investícia 5 dní do governance setupu ušetrí mesiace panikárenia o rok.


Chcete rovnaký prístup u vás? Napište nám — dohodneme 30minutový discovery call.