Etika AI v QA: GDPR, halucinácie, transparentnosť
AI v QA nie je len technický problém — je aj governance problém. Keď váš tím začne používať Claude Code alebo GitHub Copilot, posielate dáta na externé servery. To je v regulovaných odvetviach (bankovníctvo, zdravotníctvo, poisťovníctvo) otázka pre právny a compliance tím, nie pre senior QA engineera.
Tento článok pokrýva 3 hlavné riziká a ako ich mitigovať.
Riziko 1: Únik produkčných dát
Scenár: tester kopíruje do Claude Code prompta reálny dataset, aby AI vedel analyzovať „prečo tento používateľ nevie dokončiť checkout". V logu Anthropic sa teraz nachádza meno, email, adresa reálneho zákazníka.
Mitigácia:
- Anthropic / OpenAI enterprise plán má garanciu, že dáta nejdú do trénovania. Ale stále sú uložené v logoch.
- Self-hosted alternatíva — LLM-y ako Llama alebo Mistral bežiace on-premise. Drahé, ale pre highly-regulated data jediná cesta.
- Data sanitization layer — pred poslaním do AI beži
anonymize.py, ktorý nahrádza PII regex-ami alebo ML klasifikátorom. My používame Microsoft Presidio. - Prompt guidelines — tím má interný dokument „čo nikdy nekopírovať do AI". Staff training.
Riziko 2: Halucinácie
AI dá výstup, ktorý vyzerá autoritatívne, ale je nepravdivý. V teste to môže vyzerať tak:
// AI hallucinated selector — tento element neexistuje
cy.get('[data-qa="premium-badge"]').should('be.visible');
// AI hallucinated API response
cy.intercept('GET', '/api/users', { total: 42, users: [/* vymyslené */] });
Test prejde v mockovanom prostredí, ale v produkcii zlyhá. Horšie: test ani nespadne, len nekryje to, čo mal kryť.
Mitigácia:
- Vždy spustiť test v reálnom staging prostredí pred merge.
- Human review — AI nenahradí review, dopĺňa ho.
- Negative review — pri dôležitých testoch spýtaj druhý AI (iný model) na „čo môže byť zle". Disagreement = red flag.
- Coverage overovanie — ak test prechádza, ale bug v danej oblasti stále unikne → test nestačil na ten scenár.
Riziko 3: Neauditovateľnosť
Regulátor sa pýta: „Prečo tento test zlyhal v 14:32 a bol schválený v 14:35?" Ak váš QA workflow bol „AI upravila a ja som klikol merge", nemáte dobrú odpoveď.
Mitigácia:
- Versioned prompts — každý AI prompt, ktorý upravil test alebo kód, je verziovaný v git.
- AI-generated commit messages oddeliť od human commit messages. V PR template: „[AI-assisted]" tag.
- Audit log — každý AI nástroj s enterprise plánom (Claude Enterprise, Copilot Business) ponúka audit log API. Sťahuj raz denne, uchovaj 2 roky.
- Human-in-the-loop signoff — pri regulovaných zmenách (napr. testy dotýkajúce sa finančných výpočtov) povinný podpis senior engineera.
Regulované odvetvia — konkrétne požiadavky
| Odvetvie | Kľúčová regulácia | Dopad na AI v QA |
|---|---|---|
| Banking | PSD2, DORA, GDPR | Self-hosted LLM alebo enterprise contract s data residency v EU |
| Zdravotníctvo | HIPAA, GDPR, EHDS | PHI nesmie ísť do externej AI; rigorózny anonymization pipeline |
| Poisťovníctvo | Solvency II, GDPR | AI pre regresiu OK, AI pre risk engine logic problematická |
| Školstvo (detské dáta) | COPPA ekvivalent, GDPR | Nikdy reálne detské dáta do AI |
Praktické checklist pre QA lead-a
- Máme signed DPA (data processing agreement) s AI vendorom? (Anthropic, OpenAI, GitHub — áno, dostanete po signup ako Enterprise.)
- Používame enterprise plán s „do not train" flagom?
- Máme prompt guideline dokument a tím bol tréningom?
- PII anonymization layer je nasadený pred AI volaniami?
- Audit log sa archivuje aspoň 2 roky?
- Security team schválil AI workflow v písomnom stanovisku?
Záver
Etika AI v QA nie je obmedzenie — je to predpoklad používania. Tímy, ktoré to preskakujú, nahromadia dlh, ktorý sa ukáže v audite. Investícia 5 dní do governance setupu ušetrí mesiace panikárenia o rok.
Chcete rovnaký prístup u vás? Napíšte nám — dohodneme 30-minútový discovery call.