Confidential Computing
Ein Ansatz, bei dem Daten während der Verarbeitung durch hardwarebasierte Trusted Execution Environments (TEEs) geschützt werden – Schutz nicht nur at-rest und in-transit, sondern auch in-use.
Confidential Computing schützt Daten während der Verarbeitung durch Hardware-TEEs – Schutz in-use, nicht nur at-rest und in-transit. Basis für vertrauenswürdige Cloud-AI.
Erklärung
TEEs wie Intel SGX, AMD SEV oder ARM TrustZone schaffen isolierte Speicherbereiche (Enclaves). Selbst der Cloud-Provider oder OS-Admin kann die Daten nicht einsehen. Attestierung verifiziert die Integrität der Enclave.
Relevanz für Marketing
Cloud-AI auf regulierten Daten: Modell-Training und Inferenz in TEEs für Healthcare, Finance, Government. Azure, GCP und AWS bieten Confidential VMs.
Beispiel
Ein Finanzdienstleister trainiert ein Fraud-Detection-Modell in einer Azure Confidential VM. Weder Microsoft noch Admins können die Finanzdaten einsehen – die Hardware garantiert Isolation.
Häufige Fallstricke
Side-Channel-Angriffe sind möglich (Spectre/Meltdown). Performance-Overhead. Hardware-Abhängigkeit. Attestierung komplex zu implementieren.
Entstehung & Geschichte
Intel SGX (2015) war die erste kommerzielle TEE-Lösung. Das Confidential Computing Consortium (2019, Linux Foundation) vereinte Intel, Google, Microsoft, ARM. Azure Confidential Computing und GCP Confidential VMs folgten 2020-2022.
Abgrenzung & Vergleiche
Confidential Computing vs. Homomorphic Encryption
HE ist rein kryptografisch (Software); Confidential Computing nutzt Hardware-Isolation (TEEs). HE ist langsamer, TEEs haben Side-Channel-Risiken.
Confidential Computing vs. Federated Learning
Federated Learning verteilt Training auf Endgeräte; Confidential Computing schützt zentrale Verarbeitung durch Hardware-Isolation.