Zum Hauptinhalt springen
BiometricsMar 28, 2026

Lebendigkeitserkennung und digitale Identitaet in Indonesien: technische Ansaetze zur Betrugspraevention

OS
Open Soft Team

Engineering Team

Was ist Lebendigkeitserkennung und warum braucht Indonesien sie?

Lebendigkeitserkennung ist eine Technologie, die feststellt, ob eine biometrische Probe (z. B. ein Gesichtsbild) von einer lebenden, physisch anwesenden Person stammt und nicht von einem Faelschungsartefakt wie einem gedruckten Foto, einer Bildschirmwiedergabe, einer Silikonmaske oder einem Deepfake-Video. Im Kontext der KOMDIGI-Verordnung Nr. 7 von 2026 ist die Lebendigkeitserkennung eine obligatorische Komponente aller biometrischen SIM-Karten-Verifizierungssysteme.

Die Einsaetze sind enorm. Indonesien verlor 2025 geschaetzte 7 Billionen Rupiah (407 Millionen Dollar) durch Cyberkriminalitaet, laut Daten der Nationalen Cyber- und Kryptographiebehoerde (BSSN). SIM-Swap-Betrug allein verursachte 1,2 Billionen Rupiah (70 Millionen Dollar) dieser Verluste. Ohne robuste Lebendigkeitserkennung ist ein biometrisches Verifizierungssystem lediglich Sicherheitstheater — ein Angreifer kann ein hochaufloesende Foto oder Video des Opfers praesentieren und die Gesichtserkennungspruefungen bestehen.

Die Bedrohungslandschaft: Praesentationsangriffe

Praesentationsangriffe (auch Spoofing-Angriffe genannt) gegen Gesichtserkennungssysteme lassen sich in mehrere Kategorien einteilen, die jeweils unterschiedliche Erkennungsstrategien erfordern:

Stufe 1: Druckangriffe

Der einfachste Angriff verwendet ein gedrucktes Foto der Zielperson. Dies ist ueberraschend effektiv gegen einfache Gesichtserkennungssysteme ohne Lebendigkeitserkennung. Der Angreifer druckt ein hochaufloesende Foto auf Hochglanzpapier und haelt es vor die Kamera.

Erkennungsmethoden:

  • Texturanalyse (Erkennung von Druckmustern, Moire-Effekt)
  • Kantenerkennung (Papierraender sind im Bild sichtbar)
  • Reflexionsanalyse (Papier reflektiert Licht anders als Haut)
  • Bewegungsanalyse (Bewegungsmuster einer 2D-Oberflaeche unterscheiden sich von einem 3D-Gesicht)

Stufe 2: Bildschirmwiedergabe-Angriffe

Der Angreifer zeigt ein Video der Zielperson auf einem Smartphone-, Tablet- oder Laptop-Bildschirm. Ausgefeilter als der Druckangriff, da Gesichtsbewegungen wie Blinzeln und Kopfbewegungen simuliert werden koennen.

Erkennungsmethoden:

  • Bildschirmerkennung (Identifikation von Pixelgittermustern, Bildschirmrahmen)
  • Moire-Muster-Analyse (auf dem Bildschirm angezeigte Pixel erzeugen Interferenzmuster)
  • Blitzreflexionstest (Verwendung des Geraeteblitzes zur Erkennung der Gleichmaessigkeit der Bildschirmreflexion)
  • Optischer-Fluss-Analyse (Video auf dem Bildschirm hat andere optische Eigenschaften)

Stufe 3: 3D-Masken-Angriffe

Der ausgefeilteste Angriff verwendet 3D-gedruckte oder Silikonmasken, die das Gesicht der Zielperson nachbilden. Diese Masken koennen realistische Hauttexturen, Augenoeffnungen und Mundoeffnungen enthalten.

Erkennungsmethoden:

  • Tiefensensorik (Verwendung von strukturiertem Licht oder ToF-Sensoren zur Erkennung flacher Bereiche)
  • Haut-Spektralanalyse (echte Haut hat im Nahinfrarotspektrum einzigartige Reflexionseigenschaften)
  • Mikrobewegungsanalyse (Mikroexpressionen und durch den Puls verursachte Hautbewegungen fehlen bei Masken)
  • Temperaturerkennung (erfordert Waermebildkamera — Masken haben eine andere Temperatur als Gesichter)

Stufe 4: Deepfakes und digitale Injektion

Die fortschrittlichsten Angriffe verwenden KI-generierte Deepfake-Videos oder injizieren synthetische Frames direkt in die Kamera-Pipeline. Der Angreifer kann den Kameratreiber kapern oder virtuelle Kamerasoftware verwenden.

Erkennungsmethoden:

  • Geraeteintegritaetspruefung (Ueberprufung, dass die Kamerahardware nicht manipuliert wurde)
  • Injektionserkennung (Erkennung virtueller Kameratreiber oder Frame-Injektion)
  • GAN-Artefakt-Analyse (Deepfakes weisen haeufig Artefakte an Kanten, Haaren und Zaehnen auf)
  • Challenge-Response-Test (Aufforderung an den Nutzer, eine zufaellige Aktionssequenz auszufuehren — Echtzeit-Deepfakes haben Schwierigkeiten bei der genauen Reproduktion)

ISO/IEC 30107-3: Standard fuer Praesentationsangriffserkennung

ISO/IEC 30107-3 ist der internationale Standard zur Bewertung der Praesentationsangriffserkennung (PAD) biometrischer Systeme. Die KOMDIGI-Verordnung verlangt von allen biometrischen SDK-Anbietern das Bestehen von PAD-Tests auf Stufe 2 oder hoeher.

Der Standard definiert zwei Schluesselmetriken:

  • APCER (Attack Presentation Classification Error Rate): Prozentsatz der Angriffe, die faelschlicherweise als echt akzeptiert werden
  • BPCER (Bona Fide Presentation Classification Error Rate): Prozentsatz der echten Nutzer, die faelschlicherweise als Angriff abgelehnt werden
PAD-StufeAPCER-AnforderungAngriffstypen
Stufe 1≤ 5 %Gedruckte Fotos, Bildschirmwiedergabe
Stufe 2≤ 2,5 %Stufe 1 + Papiermasken, 2D-gebogene Angriffe
Stufe 3≤ 1 %Stufe 2 + 3D-Masken, partielle Angriffe

Fuer die SIM-Verifizierung in Indonesien ist Stufe 2-Konformitaet die Mindestanforderung. Finanzdienstleistungen (unter OJK-Regulierung) koennen Stufe 3-Konformitaet fuer ein hoeheres Sicherheitsniveau erfordern.

Technische Architektur der Lebendigkeitserkennung

Passive vs. aktive Lebendigkeitserkennung

Die beiden Hauptansaetze der Lebendigkeitserkennung haben jeweils Vor- und Nachteile:

Passive Lebendigkeitserkennung analysiert ein einzelnes Bild oder ein kurzes Video, ohne dass der Nutzer es bemerkt. Die Nutzererfahrung ist fliessend — man muss nur in die Kamera schauen.

  • Vorteile: Hervorragende UX, schnell, barrierefrei
  • Nachteile: Geringere Widerstandsfaehigkeit gegen fortschrittliche Angriffe

Aktive Lebendigkeitserkennung fordert den Nutzer auf, bestimmte Aktionen auszufuehren (Kopf drehen, Blinzeln, Laecheln), um zu beweisen, dass es sich um eine reale Person handelt.

  • Vorteile: Staerkere Widerstandsfaehigkeit gegen Spoofing-Angriffe
  • Nachteile: Schlechtere UX, moeglicherweise nicht zugaenglich fuer Menschen mit Behinderungen, laengere Dauer

Empfohlener Hybridansatz

Fuer das SIM-Verifizierungsszenario in Indonesien empfehlen wir einen Hybridansatz, der die Vorteile beider Techniken kombiniert:

  1. Initiale passive Pruefung: Ausfuehrung der passiven Lebendigkeitserkennung bei der Aufnahme (<500 ms)
  2. Risikobewertung: Wenn das Vertrauen der passiven Erkennung unter dem Schwellenwert liegt (z. B. <0,85), wird eine aktive Challenge ausgeloest
  3. Aktive Challenge: Der Nutzer wird aufgefordert, eine einfache zufaellige Aktion auszufuehren (z. B. Kopf nach links drehen)
  4. Endentscheidung: Kombination der passiven und aktiven Scores fuer die endgueltige Entscheidung

Lebendigkeitserkennungs-Pipeline in Rust

use serde::{Deserialize, Serialize};

#[derive(Debug, Serialize, Deserialize)]
pub struct LivenessResult {
    pub is_live: bool,
    pub confidence: f64,
    pub method: LivenessMethod,
    pub attack_scores: AttackScores,
}

impl LivenessDetector {
    pub async fn check_hybrid(
        &self,
        frames: &[CaptureFrame],
        challenge: &Challenge,
    ) -> Result<LivenessResult, LivenessError> {
        // 1. Zuerst passive Pruefung
        let passive = self.check_passive(&frames[0]).await?;

        if passive.confidence >= 0.95 {
            return Ok(passive);
        }

        // 2. Aktive Pruefung bei unzureichendem passiven Score
        let active_features = self.active_model
            .analyze_sequence(frames, challenge)?;

        let combined_confidence =
            passive.confidence * 0.4 + active_features.confidence * 0.6;

        Ok(LivenessResult {
            is_live: combined_confidence >= self.threshold_active,
            confidence: combined_confidence,
            method: LivenessMethod::Hybrid,
            attack_scores: passive.attack_scores,
        })
    }
}

Modellbereitstellung und Optimierung

Die Bereitstellung von Lebendigkeitserkennung in Indonesien erfordert die Beruecksichtigung mehrerer praktischer Faktoren:

Geraetevielfalt

Indonesien verfuegt ueber ein extrem vielfaeltiges Smartphone-Oekosystem. Unter den 345 Millionen aktiven SIM-Karten befinden sich viele Einsteiger- bis Mittelklasse-Android-Telefone. Ihre Lebendigkeitserkennungsloesung muss auf folgenden Geraeten zuverlaessig funktionieren:

  • Einsteiger: 2 GB RAM, Quad-Core-Prozessor, VGA-Frontkamera
  • Mittelklasse: 4-6 GB RAM, Octa-Core-Prozessor, 8 MP Frontkamera
  • High-End: 8 GB+ RAM, Flaggschiff-Prozessor, Frontkamera mit Tiefensensor

Modellgroesse und Inferenzzeit

BereitstellungsartModellgroesseInferenzzeitGenauigkeit
Auf dem Geraet (TensorFlow Lite)5-15 MB50-200 ms92-96 %
Auf dem Geraet (ONNX Runtime)10-25 MB30-150 ms93-97 %
Serverseitig (TensorRT)50-200 MB10-50 ms97-99 %
Hybrid10 MB (Geraet) + 100 MB (Server)100-250 ms gesamt96-99 %

Haeufig gestellte Fragen

Kann die Lebendigkeitserkennung umgangen werden?

Kein Lebendigkeitserkennungssystem ist perfekt. Die fortschrittlichsten Angriffe (insbesondere Stufe 4 digitale Injektionsangriffe) koennen aktuelle Technologien umgehen. Deshalb ist ein mehrschichtiger Ansatz unerlaeasslich — Kombination aus passiver Erkennung, aktiver Challenge, Geraeteintegritaetspruefung und Verhaltensanalyse. Das Sicherheitsziel ist nicht 100 % Schutz, sondern die Angriffskosten hoch genug zu machen, um die meisten Angreifer abzuschrecken.

Wie genau sind Lebendigkeitserkennungssysteme?

Moderne Lebendigkeitserkennungssysteme koennen unter Standardbedingungen eine Genauigkeit von 97-99 % erreichen. Die Genauigkeit wird jedoch durch Beleuchtungsbedingungen, Kameraqualitaet und Nutzerkooperation beeinflusst. Die KOMDIGI-Verordnung verlangt eine Mindestgenauigkeit von 95 % mit einem Spielraum von 5 % fuer die Falschzurueckweisungsrate (FRR).

Wie waehlt man ein Lebendigkeitserkennungs-SDK aus?

Bei der SDK-Auswahl beruecksichtigen Sie: KOMDIGI-Zertifizierungsstatus, ISO/IEC 30107-3-Konformitaetsstufe, Geraetekompatibilitaet, Offline-Faehigkeiten, Auswirkung der SDK-Groesse auf die App-Groesse, Preismodell und Qualitaet des technischen Supports. Wir empfehlen, vor der Entscheidung Benchmarks mit Ihrem eigenen Datensatz durchzufuehren.