Meine Publikationen  


ChatGPT Gesundheit« – eine medizinethische Risikoanalyse 
Katharina von Knop
 

Zusammenfassung 
OpenAI lancierte am 7. Januar 2026 „ChatGPT Health" in den USA mit angekündigter europäischer Expansion. Das System ermöglicht die Anbindung elektronischer Gesundheitsakten und Wellness-Apps. Bei geschätzten 700 Millionen weltweiten ChatGPT-Nutzern und 5,7% gesundheitsbezogenen Anfragen ergibt sich ein wöchentliches Volumen von circa 256,5 Millionen Gesundheitsanfragen.

Psychologische Einflussmechanismen:
Mehrere psychologische Faktoren werden von ChatGPT genutzt, um die Nutzer zur unkritischen Akzeptanz der Ergebnisse zu veranlassen.

Vertrauensmechanismen:
Gewöhnungsvertrauen durch positive Erfahrungen in anderen Kontexten
Transfervertrauen: Projektion von Vertrauen aus unkritischen auf kritische Anwendungsbereiche
Parasuraman/Riley-Effekt: Stärkere Nutzung bei wahrgenommener Zuverlässigkeit, unabhängig vom Verständnis der Systemgrenzen

Kognitive Heuristiken:
Affektheuristik: Emotionale Bewertung der Marke beeinflusst Risikoeinschätzung
Halo-Effekt: Positive Einzelerfahrungen strahlen auf unbekannte Bereiche aus
Verfügbarkeitsheuristik: Leicht abrufbare positive Assoziationen dominieren Entscheidungen

Design-induzierte Manipulation:
Minimalistische Benutzeroberfläche suggeriert Kontrolle
Absolutistische, selbstbewusste Wortwahl reduziert kritisches Hinterfragen
Linguistische Plausibilität wird mit inhaltlicher Korrektheit verwechselt
Ryser et al.: Halluzinationen ändern Vertrauensart, aber nicht grundsätzliches Vertrauen

Regulatorische Unklarheiten
MDR/MPDG/EU AI Act:
Die Einstufung als Medizinprodukt und Hochrisiko-KI-System ist ungeklärt. Falls zutreffend, gelten umfangreiche Dokumentationspflichten, Risikomanagementpläne, transparente Dokumentation und kontinuierliche Überwachung. Das System dürfte dann nicht mehr durch Nutzereingaben lernen.
Informationsdefizit:
OpenAI kommuniziert zwar Zusammenarbeit mit 260 Ärzten aus 60 Ländern und 600.000 Feedback-Inputs, verschweigt jedoch:

KI-technische Entwicklungsdetails
Data/KI Governance-Strukturen
Qualitätssicherungsprozesse
Human-in-the-Loop-Systeme im operativen Betrieb
Konkrete Risikomanagement-Maßnahmen

Haftungsproblematik
Aktuelle Position OpenAI:
Laut AGB werden indirekte, zufällige, Folge- und exemplarische Schäden ausgeschlossen. Die Argumentation stützt sich auf die inhärente Zufälligkeit der Ergebnisse. Haftungsverschiebung auf Ärzte und Kliniken bei institutioneller Nutzung.
Patientenperspektive:
Komplexe Vertragsketten im KI-Ökosystem erschweren Haftungsansprüche. Bei Drittanbietern (Beratungsunternehmen, Start-ups) mit API-Integration entsteht undurchsichtige Verantwortungsverteilung. Gesundheitsschäden manifestieren sich subtil (verzögerte Behandlungen, missinterpretierte Symptome, verpasste Interventionsfenster), was Kausalitätsnachweise erschwert.
Ärzteperspektive:
Beibehaltung der Arzthaftung ethisch sinnvoll zur Aufrechterhaltung sorgfältiger KI-Tool-Selektion und Datenanalyse. Notwendigkeit unabhängiger KI-Fachexpertise über nationale Strukturen (Ärztekammern) und eigenständiger europäischer Qualitätssicherung ohne Abhängigkeit von Herstellern.
Medizinethische Prinzipienverletzungen
Prinzip des Nicht-Schadens (Non-Maleficence)

Akkuratheitsproblematik:
Hirotaka et al. (2025): Metaanalyse von 83 Studien zeigt 52,1% diagnostische Gesamtgenauigkeit
Signifikant schlechter als Fachärzte, vergleichbar mit Nicht-Spezialisten
Gehlen et al.: Symptom-Checker erreichen 35,8% korrekte Diagnosen vs. 84,4% bei Ärzten; Dringlichkeitseinschätzung: 20,6% vs. 70,0%

Spezifische Risiken:
Halluzinationen: Nicht-existente medizinische Fachartikel
Kein vollständiger Zugriff auf relevante Fachliteratur
Übersetzungsfehler
Unbekannte Datenherkunft und -repräsentativität
Regionale Krankheitsunterschiede bei vermutlich außereuropäischen Datenquellen
Bildungsgrad und Prompt-Qualität beeinflussen Ergebnisse

Nutzerspezifische Gefahren:
Fehlinformation und falsche Sicherheit
Panikauslösung
Kognitive Verankerung falscher Informationen vor Arztbesuch
Besondere Vulnerabilität psychisch Erkrankter

Prinzip der Sorgfaltspflicht
Keine transparente Information über:
Cybersicherheitsmaßnahmen
Qualitätssicherung und Risikomanagement
Ethische Entwicklungs- und Betriebsprinzipien
Entscheidungsprozesse (fehlende Erklärbarkeit)

Prinzipien der Gerechtigkeit und Fürsorge (Beneficence)
Disclaimer erst nach kognitiver Verarbeitung unwirksam. Nutzer in Notsituationen besonders verwundbar durch erhöhte Stresshormone. Haftungsfreizeichnung kann Sorgfaltspflicht bei Produktentwicklung reduzieren.
Prinzip der Gleichbehandlung vs. algorithmische Diskriminierung

Unterrepräsentation medizinischer Besonderheiten von Minderheiten
Genetischer Hintergrund und sozialer Kontext unberücksichtigt
Bildungs- und KI-Kompetenzunterschiede führen zu unterschiedlichen Prompt-Qualitäten und Ergebnissen

Prinzip der Patienten-Autonomie
Die Kombination aus Markenbekanntheit, kognitiven Heuristiken, UX/UI-Design, linguistischer Plausibilität und nachgestellten Disclaimern wird als algorithmische Bevormundung charakterisiert, die echte Autonomie unterminiert.
Systemische Risiken
Hypothese zur Qualitätsunmöglichkeit:
Aufgrund der KI-Systemgröße, komplexen Daten-Lieferantenkette und Nutzer-Eingabenmenge sei präzises Qualitäts- und Risikomanagement unmöglich, da bereits die Systemgrenzziehung nicht realisierbar ist.

Datenmachtkonzentration:
Potentielle größte Gesundheitsdatenbank weltweit
Machtasymmetrie für Preisdiktate, Patente, Forschungsmonopole
Mögliche ePA-Anbindung und EHDS-Zugriff
Verlust nationaler Rechtsräume und Ethikkommissions-Einfluss
Technologie setzt de facto Normen statt demokratischer Debatte

Kommerzielle Verzerrungen:
Angekündigte Werbeschaltung auch bei Gesundheitsfragen
Priorisierung maschinell lesbarer Webseiten ohne Qualifikationsprüfung
Potentielle Lenkung profitabler Erkrankungen

Empfehlungen für europäische Symptom-Checker
Wissenschaftliche Fundierung: Umfängliche, kontinuierliche Untersuchung des Nutzens im Verhältnis zu den Risiken
Unabhängige Überwachung: Europäische fachlich zertifizierte Experten
Regulatorische Compliance: Fortlaufende Einhaltungsprüfung
Transparenzkommunikation:
Explizite Warnung vor Heuristiken und linguistischer Manipulation
Prominente Anzeige unabhängig gemessener Akkuratsheitsmetriken vor Nutzung
Verständliche Governance-Strukturdokumentation


Nutzer-Befähigung:
Differenzierte Eingabemasken statt Freitext
Tutorials für hochwertige Prompts
Berücksichtigung sprachlicher Einflüsse auf Ergebnisse

 Es wir grundsätzlich infrage gestellt, ob Systeme basierend auf „Oberflächenplausibilität, Konformität und stochastischen Prozessen" jemals als Schnittstelle zwischen Patienten und Ärzten fungieren sollten – unabhängig vom Nutzer. Die identifizierte Manipulationskraft erfordert strenge regulatorische Intervention zum Schutz der informationellen Selbstbestimmung und medizinethischen Grundprinzipien.

German Angst: Ängste vor KI verstehen, beheben und Chancen nutzen
Katharina von Knop 

Zusammenfassung 

Durch unser kulturhistorisch geprägtes Sicherheits- und Risikobedürfnis haben wir die große Chance, vertrauenswürdige und sichere KI sowie ein sicheres Ökosystem der sie begründenden Daten und Prozesse zu entwickeln – bezogen auf die KI-Modelle, die kommen werden. Die Qualität und Akzeptanz von KI-Systemen, die hohe ethische und technische Standards erfüllen, kann höher sein als bei Systemen, die wenig transparent sind.Zusammenfassung: Neuropsychologie, Angst und KI – Strategien zur Vertrauensbildung
Interview mit Dr. Katharina von Knop, CEO Digital Trust Analytics GmbH
Neuropsychologische Grundlagen von Angst

Drei Ausprägungen von Ängsten
1.    Evolutionär bedingte Ängste: Gelernte Schutzmechanismen zur Überlebenssicherung
2.    Genetisch/kulturell bedingter Risiko-Appetit: Risikobereitschaft einer Gesellschaft oder Kulturregion
3.    Biografisch spezifisches Lernen: Individuelle bewusste und unbewusste Lernerfahrungen

Kernthese: Frühe positive Erfahrungen mit Neuem reduzieren Ängste. Menschen lernen, dass Neues Nutzen bringt, beherrschbar ist und Risiken durch kritische Auseinandersetzung minimierbar sind.

Warum klassische Beratung & Coaching scheitert
Neuroanatomische Barriere: Neocortex (Sprache, komplexe Denkvorgänge) und Amygdala (Angststeuerung im limbischen System) interagieren nicht direkt. Die Amygdala ist nicht durch Sprache beeinflussbar. Sachargumente erreichen bei existierender Angst die neuronale Steuerung nicht – klassische Coachingmethoden bleiben wirkungslos.
Wirksamste Intervention: Bewusste, kontrollierte Konfrontation mit dem Angstauslöser. Bezogen auf KI: Aktives Arbeiten mit KI-Systemen ermöglicht dem Neocortex Verständnis der Lösung, woraufhin die Amygdala lernt, dass Angst unnötig ist.
Empfehlung: Ein Digital-, KI- oder Programmier-Lerntag pro Woche als sinnvolle Investition. Transparenz-Erklärung der KI. 

Kulturhistorische Faktoren in Deutschland
Historische Traumata
•    Zwei brutale Diktaturen prägten die Gesellschaft
•    Während dieser Zeit nur eingeschränkte Selbstwirksamkeit möglich
•    Absolute Abhängigkeit von Regimen
•    Traumata werden unbewusst an folgende Generationen weitergegeben
Migrationsdynamik und Innovationsverlust
Verlust innovativer Persönlichkeiten:
•    Erster und Zweiter Weltkrieg: Millionen Tote, Auswanderung insbesondere von Intellektuellen, Vordenkern, Wissenschaftlern, Unternehmern – Menschen mit überdurchschnittlicher Risikobereitschaft
•    Aktuell: Jährlich circa 200.000 Auswanderer laut Statistischem Bundesamt, darunter viele Hochqualifizierte und Innovationstreiber
Harte Indikatoren für Innovationsrückgang:
•    Entwicklung der Nobelpreis-Verleihungen
•    Patentanmeldungen
•    Innovative Unternehmensgründungen
•    Ausgründungen aus der Wissenschaft
•    Unicorn-Gründungen
Konsequenz: Mit jeder Migrationsphase sinkt der Anteil risikobereiter, innovationstreibender Menschen. Ergebnis: Geringere Risikobereitschaft, ausgeprägte Sicherheitskultur, starke Zurückhaltung gegenüber digitalen Lösungen, besonders von staatlichen Institutionen.
Ängste in der Bevölkerung


YouGov-Umfrage zu KI-Ängsten (Deutschland):
•    Desinformation/Fake News als Gefährdung demokratischer Ordnung: ~30%
•    Jobverlust: ~30%
•    Kernangst: Kontrollverlust
Spektrum der KI-Ängste:
•    Angst vor Unbekanntem
•    Angst vor Relevanzverlust oder Ersetzung durch Automatisierung
•    Kognitive Überforderung durch Lernaufwand
•    Kontrollverlust (in Deutschland dominant)

Konfrontation statt Vermeidung
Teufelskreis der Angstverstärkung: Vermeidungsverhalten bestätigt der Amygdala die Richtigkeit der Angst und verstärkt diese zukünftig. Organisatorische Manifestationen: Endlosschleifen von Meetings ohne Entscheidung, übermäßige E-Mail-CC-Listen zur Verantwortungsdiffusion.
Wirkmechanismus der Konfrontation: Aktive Auseinandersetzung mit KI-Modellen, chancenorientierte Lösungssuche und Verständnisaufbau führen zur Erkenntnis der Amygdala, dass Angst unbegründet war. Konfrontation und konstruktive Auseinandersetzung reduzieren Angst.
Entscheidungsmethodik für KI-Implementierung:
•    Feststellung aller Entscheidungskriterien auf Sachebene
•    Erhebung von Alternativen und Konsequenzen
•    Einschätzung der Folgen bei Nicht-Anwendung
•    Anonyme Beantwortung durch alle Teammitglieder
•    Terminierung für eindeutige Entscheidung
Kreislauf der Besorgnis
Neuropsychologischer Mechanismus: Orbitofrontaler Kortex → dorsolateraler präfrontaler Kortex → Thalamus → Striatum → orbitofrontaler Kortex. Dieser neuronale Kreislauf verstärkt die Besorgnis-Intensität.
Beispiel: Unsicherheit über abgeschlossene Wohnungstür oder ausgeschalteten Herd.
Ausstiegsstrategie: Der dorsolaterale präfrontale Kortex (begründender Gehirnteil) benötigt substanzielle Sachargumente für KI-Sicherheit, Ergebnisplausibilität oder Gewissheit über Nicht-Manipulation. Glaubwürdige wirksame Prüfsysteme, die permanent eingesetzt werden, reduzieren Komplexität und ermöglichen Kontrolle, zu der Nutzer sonst nicht fähig sind.
Vertrauensbildung und Prüfsysteme
Definition von Vertrauen (neuropsychologisch)
"Die Befähigung, auf eine bewusste oder unbewusste Risiko-Chancen-Analyse zu verzichten in der Annahme, dass sich das System auf die erwartete zuträgliche Weise verhält und dem Interesse der Nutzerinnen und Nutzer dient."
Erforderliche Maßnahmen

Glaubwürdige Automatisierte Testingtools
•    Enthalten automatisierte Testing-Tools und setzen auf permanente Prüfung anstelle eines „Fotos“
•    Reduzierung enormer Komplexität für Nutzer
•    Befähigung zu Handlungsentscheidungen
•    Durchbrechung des Besorgnis-Kreislaufs

Transparenz:

•    KI-Erklärung in leichter Sprache
•    Transparenz auf Algorithmik-Ebene
•    Externe Auditierbarkeit
•    Wirksame, glaubwürdige Prüfsiegel
•    Maximale Kontrollmöglichkeit für Nutzer bezüglich eigener Eingaben
•    Verlässlichkeit des Systems

Anti-Manipulation:
•    Verzicht auf Dark Patterns
•    Kein gezieltes Erzeugen kognitiver Dissonanz
•    User-Interfaces, die zum Hinterfragen von KI-Ergebnissen motivieren
•    Funktionen für bewusste kognitive Auseinandersetzung
•    Vermeidung von Verantwortungsexternalisierung

Regulatorik
Befähigender statt lähmender Ansatz: Wirksame, effiziente Normen und Prüf-/Kontrollsysteme unabhängiger, glaubwürdiger Institutionen sind essentiell, sollten aber nicht unnötig Ressourcen binden. Wichtig MVP Testung ob diese tatsächlich mehr Sicherheit schaffen oder nur wieder unnötige kostenintensive Bürokratie. 
Neugierde als Gegenpol zu Angst

Wettbewerbsvorteil: Qualität und Akzeptanz von KI-Systemen mit hohen ethischen und technischen Standards kann höher sein als bei wenig transparenten Systemen.

Strategischer Ansatz: "Lasst uns mit begeisterter Neugierde die neuesten KI-Modelle entwickeln und nutzen. Und gleichzeitig suchen wir nach Lösungen, wie wir diese vertrauenswürdig und sicher machen können. Das ist kein Widerspruch, sondern geht Hand in Hand."

Demokratisierung von Technik
Open-Source-Software schafft Transparenz – eine kostbare und wesentliche Komponente für digitalen Vertrauensaufbau.

Pyramide der Vertrauensbildung
Von Knop entwickelte auf Basis der Maslowschen Bedürfnispyramide die "Pyramide der Vertrauensbildung", die bewusst Techniken wie Dark Patterns und gezieltes Generieren kognitiver Dissonanz ausschließt.
Grundebenen:
1.    Signifikanter Nutzen auf Sachebene der KI-Lösung
2.    Korrekte, unverzerrte Daten
3.    Effiziente und effektive Prozesse
Ziel: Befähigung der Nutzer zur Entwicklung echten Vertrauens.
Kernempfehlungen
Angstabbau erfordert:
•    Sachliche Aufklärung und offene Kommunikation
•    Einbindung der Open-Source-Community
•    Einbindung der Safety- und Trust-Community
•    Systemsicherheit und Transparenz
•    Einbindung aller Stakeholder
•    Zielgruppenspezifische Kommunikation
•    Durchdachtes nicht-manipulatives UX- und UI-Design
Organisatorisch:
•    Weniger meinen, glauben oder fühlen in KI-Diskussionen
•    Möglichst quantifizierte Messwerte
•    Qualitative Daten quantifizieren
•    Definierte Entscheidungsmethoden verwenden

 

Globale Marktpotential und Technologie-Anlayse:  Digital Trust

Unlocking the Next Wave of Growth in the Digital Economy

 Dr. Katharina von Knop served as a Special Advisor for this global Digital Trust study 

 Executive Summary: Digital Trust - Unlocking the Next Wave of Growth in the Digital EconomySGTech Digital Trust Landscape Study (2022)Introduction and Context. This whitepaper presents findings from SGTech's comprehensive Digital Trust Landscape Study, conducted between January and August 2022 through over 80 interviews with global industry leaders and extensive literature review. The study addresses digital trust as a critical enabler for the ambition to become a global node for digital innovation and data. Definition of Digital TrustThe study establishes Digital Trust as: "The confidence participants have in the digital ecosystem to interact securely, in a transparent, accountable, and frictionless manner." This definition encompasses stakeholder-specific emphases:
Citizens: Confidence in secure, private, transparent, and accountable online interactions
Industry and Businesses: Security, competence, consistency, transparency, and verifiable commitment to user interests demonstrated through policies, systems, and conduct
Governments and Regulators: Adherence to necessary processes, policies, and frameworks enabling efficient and confident digital interaction

Market Opportunity
Digital Trust represents a SGD 385 billion (USD 270 billion) global market opportunity in 2022, projected to grow to SGD 765 billion (USD 537 billion) by 2027 at a 15% CAGR.Key sectors and growth rates (2022-2027):

Cybersecurity: SGD 220bn → SGD 415bn (13% CAGR)
Digital Trust Consulting: SGD 51bn → SGD 90bn (12% CAGR)
Digital Identity: SGD 43bn → SGD 91bn (16% CAGR)
Privacy Enhancing Technologies (PETs): SGD 3bn → SGD 18bn (40% CAGR)
Distributed Ledger Technologies (DLTs): SGD 6bn → SGD 44bn (49% CAGR)
Cyber Insurance: SGD 13bn → SGD 41bn (25% CAGR)

Singapore's Digital Trust Sector (2022):
Current size: SGD 1.7bn (USD 1.2bn) annually
Employment: ~15,000 people
Projected 2027: SGD 4.8bn (USD 3.4bn) employing 34,000-45,000 people

Digital Trust Framework - The study identifies five primary forms of digital interactions:
Presentation of Information (e.g., website viewing, hardware interfaces)
Digital Communications (e.g., chats, video conferencing)
Data Transmission and Digital Transaction (e.g., IoT transmissions, eCommerce, B2B)
Data Access and Storage (e.g., cloud storage, APIs, Digital IDs)
Data Analysis and Use (e.g., AI/Big Data analysis, wearables health monitoring, KYC)
Key objectives for trusted interactions:
Accuracy: Information and data sources are accurate, timely, and comprehensive
Privacy: Legal compliance and user confidentiality respected
Security: Data and transaction integrity maintained, available only to intended parties
Competency: Digital interactions available, efficient, and successful
Accountability: Data use meets expectations in legal, ethical, and transparent ways; breaches or misuse addressed quickly and responsibly
Three Pillars of Enablers1. Governance

AI Ethics Frameworks

Data Protection Laws and Regulations
Cyber Strategy and Laws
Cyber Insurance
Privacy by Design
Security by Design
Harmonization of Standards
Facilitating Bodies and Associations
Recourse and Mediation Bodies

2. People
Consumer Awareness and Education
Citizen Advocacy
Digital Trust Certifications
Digital Trust Workforce
Digital Trust-Related Consultancy (Legal, Resilience Building, Training, Cybersecurity As-A-Service, Privacy-As-A-Service)

3. Technology

Privacy Enhancing Technologies
Distributed Ledger Technologies
Cybersecurity Technologies
Digital Identity
Governance, Risk, and Compliance Software
AI/ML Tools (Fraud Detection, Threat Monitoring, Synthetic Data, etc.)
Major ChallengesFor Citizens:

Misinformation: Fake news, disinformation, deepfakes by bots and foreign actors
Online Scams: Hacking and phishing scams
Online Harms: Child exploitation, cyberbullying, hate speech, online addiction, terrorism-related content, violent content
Misuse of Data: Data analysis and personal information used without consent
Misleading User Interfaces: Dark patterns and corporate interests misdirecting consumers
For Industry and Businesses:

Constant Cyber Threats: Ensuring secure data transmission with internal redundancy and recovery from breaches
Online Harms: Adhering to regulations requiring local customization with potentially high financial penalties
Inadequate Capabilities: Baseline internal staff capability gaps; hiring challenges for cybersecurity and privacy engineers; need for external Digital Trust lawyers and Cybersecurity consultants
Lacking Standards: Absence of standards beyond IT and cybersecurity (AI ethics frameworks, data sharing policies, data classification)
Constraints in Data Sharing: Lack of trust between counterparties; data sovereignty and national law restrictions; lack of available technology for Personal Identifiable Information (PII) management
Under-resourced SMEs: Especially vulnerable to cyber attacks due to lack of financial and manpower resources

For Governments and Regulators:

Facilitating Data Flows: Balancing business cooperation, privacy concerns, cybersecurity, and national security
Complexities in Cross-border Cooperation: Ensuring cybersecurity enforcement, sharing intelligence on threats, harmonizing cross-border data standards with other governments and standard bodies
Foreign Interference and Disinformation: Educating populations and establishing defenses against online threats
Global Competition for Talent: AI ethicists, cybersecurity professionals, Digital Identity specialists, international privacy regulation lawyers, privacy engineers

Five Key Trends and Opportunities
#1: Misinformation Becoming More WidespreadCurrent State:
86% of global online respondents believe they have been exposed to fake news
Singapore ranked second globally for bad bot activity (39% of Internet traffic vs. 53% from people, 8% from good bots)
7% increase (2021-2022) in people believing business leaders purposely mislead through false/exaggerated information
Mistrust toward media and government leaders proliferating at 8-9% increase rates
Opportunities:

Consumer Awareness and Education: Developing more discerning populations through governments, educational institutions, think-tanks, non-profits, and advocacy groups
School curricula and community awareness programs, particularly for elderly populations
#ulti-disciplinary teams with global Digital Trust mandate
Creating strong competition for talent globally

Wie gelingt digitaler Vertrauensaufbau in digitale Finanzservices Neuropsychologische wissenschaftliche Arbeit
38 halbblinde Experimente auf der Basis realer Problemstellungen digitaler Lösungen und Geschäftsmodelle, die uns 34 Banken genannt haben.
Die durchschnittliche Testgruppengröße betrug 980 Personen 

Digitales Vertrauen, Banken, Digital Trust Financial Services, KI Trust, Vertrauen in KI, Vertrauen in künstliche Intelligenz

Vertrauen im Zeitalter der Digitalisierung

Wie kann digitales Vertrauen bei digitalen Geschäftsmodellen,, digitalen Produkten und IT-Lösungen aufgebaut und implementiert werden? Der fachliche Schwerpunkt bei diesem Vortrag liegt in der Neuropsychologie. Mein Vortrag beginnt ab Minute 52.

Zum vollständigen Artikel

Wie kann digitales Vertrauen bei Finanzprodukten umgesetzt werden und was bedeutet digitales Vertrauen in der Fintech-Szene?

Zum vollständigen Artikel
künstliche Intelligenz, Machine Learning, Trustworthiness AI, Digital Trust, Fintech Digital Trust, Finanzdienstleister Digitales Vertrauen

Sicherheitspolitisches Entscheidungsverhalten: Mit strukturierten Methoden Heuristiken und „Noise“ erkennen und bessere Entscheidungen treffen

Zusammenfassung: Die Entscheidungsfindungen von Menschen und somit auch von politischen Organisationen wird von 188 Heuristiken (Biases) und „Noise“, die unerwünschte Variabilität von Entscheidungen beeinflusst und ist in jeder Kategorie der politikwissenschaftlichen Entscheidungsfindung identifizierbar. Wenn ein terroristischer Anschlag verübt wird, sind die Folgen immer Krisenentscheidungen. Diese Krisenentscheidungen dienen dazu, die staatliche Handlungsfähigkeit durch öffentlich direkt erlebbare Maßnahme zu artikulieren und weitere unmittelbare Anschläge zu verhindern. Anschließend folgen Vorbereitungsentscheidungen. Bei diesen Entscheidungen ist das Ziel zukünftige Anschläge zu verhindern. In diesem Artikel wird das Thema behandelt, dass durch die Implementierung von strukturierten Entscheidungsmethoden politische Organisationen und Entscheidungsträger dazu befähigt werden können, wirksamere Entscheidungen zu treffen, weil diese Methoden Heuristiken und Noise transparent machen und dabei helfen diese deutlich zu reduzieren.

Katharina von Knop, Katharina Knop, New Management, Digitale Vertrauensbildung,

"Digitales Vertrauen befähigt uns, Entscheidungen zu treffen"

Dr. von Knop, Ihr jüngsten Unternehmen „Digital Trust“ untersucht, wann wir neuen Technologien vertrauen. Was findet eine mehrfache Gründerin und Treiberin der digitalen Transformation wie Sie an dem Thema interessant?


Katharina von Knop: Ich saß in so vielen Meetings, bei denen darüber gesprochen wurde, wie digitale Geschäftsmodelle besser skalieren. Dabei wurde sehr viel geglaubt, gemeint und gefühlt, aber erstaunlich wenig belastbar gewusst, obwohl es die erste App bereits vor elf Jahren gab. Ich wollte mehr substanielle Evidenz auf die Frage, warum wir manche Technologien nutzen und manche weniger bis gar nicht. Der klassische A/B-Test, den man sonst für die Erforschung von Nutzerreaktionen einsetzt, hilft hier nicht wirklich weiter, da man neben der Originalversion eines Systems einfach nur eine Variante testet. Deshalb habe ich dazu einen Forschungsantrag bei der Europäischen Union gestellt, um digitales Vertrauen genauer zu untersuchen, mit neuropsychologischen Experimenten. Der wurde genehmigt und inzwischen ist mit Digital Trust ein eigenes Unternehmen daraus entstanden.

Zum vollständigen Artikel

Der methodische Einsatz von künstlicher Intelligenz in der Diagnose und Therapie des Myelodysplastischen Syndroms (MDS) 

Sonderausgabe der Leukämie Lymphom Liga e.V. zum Thema  Digitalisierung und KI-basierte Entscheidungshilfe in der Klinik für Hämatologie, Onkologie und
klinische Immunologie

Zum vollständigen Artikel
künstliche Intelligenz, Machine Learning, Trustworthiness AI, Digital Trust
Katharina von Knop, Katharina Knop, Fraunhofer, Risiko, Digital Products

"Es ist ein Risiko, nicht ins Risiko zu gehen"

Was haben Rosinen, Katzen-Videos und die Weigerung, die Steuererklärung zu machen, mit Digitalisierung und Technologie zu tun? Katharina von Knop untersucht die Nutzung von Software und digitalen Services aus der Perspektive der Neuropsychologie. Mit dem von ihr gegründeten Unternehmen Digital Trust zeigt sie Wege auf, über die sich die Akzeptanz solcher Lösungen optimieren lässt.

Daneben greift die Fraunhofer-Alumna beim Plug & Play Tech Center jungen Gründern und Start-ups beim Business Development und der Produktentwicklung unter die Arme, sofern sie nicht bei einer Versicherung die digitale Gesundheitskarte implementiert oder Satelliten-gestützte Lösungen entwickelt, die die Verbreitung von Infektionskrankheiten abbilden oder Lecks in Gasleitungen aufspüren.

Beim Unternehmen Regify ist sie aktive Beirätin und unterstützt das Business Development für die Cyber-Sicherheitslösungen. Beim Fraunhofer Institut für Offene Kommunikationssysteme FOKUS hat die diplomierte Politikwissenschaftlerin und promovierte Philosophin von 2011 bis 2012 als Projektmanagerin unter anderem das Rettungssystem Katwarn weiterentwickelt und in eine Lösung für Kommunen und Organisationen gepackt.


Zum vollständigen Artikel

»Vom Risiko, nicht ins Risiko zu gehen«

Wichtig ist,  dass die Geschäftsidee etwas taugt. Worauf sollten Gründerinnen und Gründer diesbezüglich achten?

Erstens muss man den Markt und die Zielgruppe sehr gut analysieren und realistisch einschätzen. Zweitens sollte man überlegen, ob man seine Idee vermittelt bekommt. Und drittens reicht am Anfang ein MVP, ein Minimum Viable Product. Es geht darum, schnell mit einer Idee am Markt zu sein. Weitere Probleme lösen Sie dann, wenn sie sich stellen. Wir müssen nicht gleich den Ozean zum Kochen bringen, oft reicht eine 80-prozentige Lösung. Bei meinem ersten Start-up hatte ich anfangs, als ich den ersten B2B-Kunden akquirierte, nicht viel mehr als eine Excel-Liste mit Verbrauchsdaten, mathematische Überlegungen und eine schlüssige Argumentation. Keine Homepage, kein Büro – reine Fokussierung auf das Kernprodukt. Da kann ich nur den Tipp geben, seien Sie mutig! Es muss nicht perfekt sein, viel wichtiger ist, dass man auf den Markt reagiert und das Produkt entsprechend weiterentwickelt

Dr. phil Katharina von Knop,  Startup, Digital Transformation,  Digitales Vertrauen umsetzen,  digitale Geschäftsmodelle entwickeln

Was haben Sie bei dieser wissenschaftlichen Arbeit beispielsweise über die Erfolgsaussichten von neuen Geschäftsmodellen gelernt

Eine Menge! Aber um es kurz zu machen: Wichtig ist vor allem zu verstehen, dass wir sehr viel Arbeit leisten müssen, damit Menschen die Risiko-Chancen-Abwägung zugunsten digitaler Lösung wirklich fällen. Deshalb ist es erforderlich, dass wir Technologie dem Menschen, also seinen Sinnen und Fähigkeiten, ähnlicher machen. Ich beschäftige mich im EU-Ausland und den USA beispielsweise sehr intensiv damit, wie wir Menschen motivieren können, E-Health-Lösungen intensiver zu nutzen. Die Nutzerdaten sind im Vergleich zu anderen Branchen sehr schlecht, allerdings brauchen wir neue Lösungen, da die Kosten für Erkrankungen, die durch den eigenen Lebensstil verursacht werden, regelrecht explodieren.
Zum vollständigen Artikel
künstliche Intelligenz, Machine Learning, Trustworthiness AI, Digital Trust
Digitalisierung; Digitale Transformation, Software human centric, User centric, Neuropsychology, Digital Trust, Digitales Vertrauen bei Software

Wer gerne mit einem IT Programm arbeitet, macht viel weniger Fehler
(Interview in der Frankfurter Allgemeinen Zeitung)

Was die digitalen Kompetenzen von Beschäftigten angeht, hinkt Deutschland noch immer ziemlich hinterher. Digitalberaterin Katharina von Knop erklärt im Interview, wie sich das verbessern ließe. Frau von Knop, Sie haben in einem breit angelegten Projekt erforscht, wie es um die digitalen Kompetenzen von Beschäftigten steht. Was ist das Ergebnis? Wir haben unsere Versuche in 35 zumeist großen Unternehmen durchgeführt, im Durchschnitt nahmen jeweils rund 1000 Personen teil. Zwei Erkenntnisse haben mich überrascht: Zum einen die große Unsicherheit im Umgang mit Informationstechnologie in weiten Teilen der Belegschaft und zum anderen das hohe Maß an Unbedachtheit beziehungsweise die Naivität, so nach dem Motto: Wenn die Maschine das so sagt, dann wird das auch so sein.
Zum vollständigen Interview

Technologie dem Menschen ähnlicher gestalten -
Die zwölf Kernelemente des digitalen Vertrauens

(Artikel: Fachmagazin für IT-Sicherheit und Datenschutz)

Man hört es auf den führenden Konferenzen rund um die Themen Digitalisierung, künstliche Intelligenz, Mashine Learning etc. immer wieder:„DieTechnologie muss menschlicher werden.“Damit ist nicht der philosophische Humanismus gemeint.Vielmehr geht es darum,dassTechnologie für den Menschen
leichter verständlich, umgänglich undakzeptabel werden muss. Doch was genau bedeutetdas?In meine rwissenschaftlichen
Forschung,gefördert vom Wissenschaftsfond
der Europäischen Kommission, habe ich zwölf Kernelemente identifiziert, die für eine menschlichere Technologie und die Bildung von digitalem Vertrauen nötig sind.
Zum vollständigen Artikel
Building Digital Trust,  Aufbau des Digitalen Vertrauens,
Digitale Transformation umsetzen, Neue digitale Geschäftsmodelle entwickeln

Es gibt noch große Unsicherheiten                          (Artikel: Wirtschaftsmagazin der IHK)

Was untersuchen Sie genau?                                                                           Das Verhalten von Mitarbeitern und Kunden, wenn sie Prozesse digital umsetzen müssen und wenn digitale Produkte, Plattformen Tools etc. vermarktet oder genutzt werden. Ziel ist es herauszufinden, wie man die Nutzerquoten optimieren kann. Zum Beispiel ist die Kreativität, offline Prozessschritte neben den digitalen Prozessen zu implementieren, noch sehr groß. Das führt zu enormen Effizienzverlusten, Fehlerquoten, Doppelbelastungen, oder ein Prozess läuft gar nicht mehr, weil jemand krank oder im Urlaub ist. 
Zum vollständigen Artikel

Der islamistische Terrorismus und ungenutzte Potentiale des freiheitlichen demokratischen Handelns

 Dieser Artikel von mir, ist in der Festschrift von Prof. Dr. Heinrich Neisser anlässlich seines 85 jährigen Geburtstages in der zugehörigen Festschrift veröffentlicht worden. In dem Artikel befasse ich mich, unter starken Rückgriff auf meine Doktorarbeit, wie welchen Maßnahmen freiheitliche Demokratien die Wirksamkeit ihres eigenen Handelns gegen den islamistischen Terrorismus steigern können. Der vollständige Artikel ist unter folgenden Link abrufbar.

Zum vollständigen Artikel
Digitales Vertrauen, Terrorismus, Counterterrorism, Cybersecurity Saefty