Ethik in der Künstlichen Intelligenz (KI): Eine Schlüsselfrage für unsere Gesellschaft
Laut einer Studie des deutschen Startup-Verbands nutzen 76 Prozent der Startups regelmäßig generative Künstliche Intelligenz wie ChatGPT, beispielsweise im Marketing, in der Produktentwicklung und IT. Zwischen 2021 und 2023 sind globale Startup-Finanzierungen um 57 Prozent gesunken, während im Bereich generative Künstliche Intelligenz (GenAI) ein Anstieg um 363 Prozent auf 22,3 Mrd. Euro zu verzeichnen ist. Das zeigt uns: Künstliche Intelligenz ist ein aktuell entscheidender Wirtschaftssektor. Dabei rückt eine wichtige Frage regelmäßig in den Fokus: Wie können wir sicherstellen, dass mit dieser richtungsweisenden Technologie ethisch und verantwortungsbewusst gearbeitet wird?
KI bietet unglaubliche Vorteile, doch ohne angemessene Vorsicht kann sie auch ernsthafte Gefahren für die Gesellschaft darstellen – von Arbeitsplatzverlusten über Verletzungen der Privatsphäre bis hin zur möglichen Diskriminierung aufgrund von Hautfarbe oder Geschlecht.
In einer von IBM durchgeführten Studie wurde festgestellt, dass generative KI andere Eintrittsbarrieren aufweist als herkömmliche KI-Modelle: Datenschutzbedenken (57 Prozent) und Vertrauen sowie Transparenz (43 Prozent) sind die Hauptbedenken bei generativer KI, so die IT-Experten in den befragten Organisationen. Dennoch ist es wichtig anzuerkennen, dass bereits Lösungen existieren, um ethische KI zu fördern. Hier seien die drei grundlegenden Prinzipien für die ethische Verwendung von KI benannt:
Transparenz als wichtigste Leitlinie
Transparenz ist bei der Arbeit mit KI von grundlegender Bedeutung. Wie kommen KI-Systeme zu ihren Ergebnissen und Entscheidungen? Nutzern fehlt häufig der Einblick hinter die Kulissen der KI-Systeme – stattdessen schwebt KI meist in einer geheimnisvollen Wolke. Es entsteht eine Kluft zwischen der Öffentlichkeit und den Entwicklern der KI. Deshalb sollten Algorithmen von KI-Systemen möglichst verständlich und erklärbar sein. Indem wir die Entscheidungsprozesse der Algorithmen transparent gestalten, können wir das Vertrauen der Öffentlichkeit stärken. Mit einem verbesserten Verständnis können Nutzer gleichzeitig verantwortungsvoller mit der Technologie umgehen.
Ein Beispiel: Ein Startup in der Versicherungsbranche möchte mit Künstlicher Intelligenz arbeiten, um seine Prozesse zu vereinfachen. Besonders in dieser Branche sind Versicherungsnehmer darauf angewiesen, dass auf ihre persönliche Situation eingegangen wird. Von einer KI-geleiteten, automatisierten Evaluierung können sie sich deshalb häufig abschrecken lassen. Unternehmen können dem entgegenwirken, indem sie durch eine gute Kundenbetreuung und einer transparenten Darstellung ihrer Prozesse dafür sorgen, dass die Scheu gegenüber ihren KI-geleiteten Evaluierungsprozessen abgelegt wird.
Vielfalt und Inklusion als Basis der KI-Konzeption
Bereits bei Beginn der Entwicklung von KI-Systemen sollten Vielfalt und Inklusion mitgedacht werden. Wenn Algorithmen mit nicht ausreichenden Daten trainiert werden, können kulturelle und soziale Vorurteile verstärkt werden, was zu diskriminierenden Ergebnissen führen kann. An dieser Stelle gilt es, aktiv dagegen zu steuern: Durch die Förderung von Vielfalt in Entwicklungsteams und die Anwendung inklusiver Praktiken während des gesamten Prozesses können wir ausgewogenere Systeme entwickeln.
Beispielsweise sollten wir uns fragen, welche Datensätze von Anbietern von Large Language Models (LLM) verwendet werden und welche spezifischen Vorurteile sie aufweisen (OpenAI vs. Mistral). Indem wir mit Trainingsdaten arbeiten, die eine höhere Vielfalt menschlicher Perspektiven und Erfahrungen angemessen repräsentieren, können wir Verzerrungen und Vorurteile in den generierten KI-Ergebnissen reduzieren. Nur mit dieser Herangehensweise können wir sicherstellen, dass KI-Technologien die Vielfalt der Gesellschaften widerspiegeln und respektieren.
Immer wachsam: Seid euch der Schwachstellen der KI bewusst
Letztendlich sind Bildung und Sensibilisierung entscheidend, um langfristig verantwortungsvoll mit Künstlicher Intelligenz umzugehen und zu arbeiten. Nutzer müssen über die ethischen Implikationen dieser Technologie informiert werden und lernen, wie sie verantwortungsbewusst gesteuert werden kann. Ebenso sollten KI-Experten in ethischen Fragen geschult sein und über die erforderlichen Fähigkeiten verfügen, Systeme zu entwerfen und umzusetzen, die moralische und soziale Fragen und Bedenken berücksichtigen.
In der Praxis rüsten sich immer mehr Softwareunternehmen, die mit KI arbeiten, mit Ethikkomitees aus, die sicherstellen sollen, dass zukünftige Entwicklungen den strengen ethischen Standards entsprechen. Diese Initiativen sind entscheidend: Insbesondere in sensiblen Branchen wie der Cybersicherheit sollte sichergestellt werden, dass jeder technologische Fortschritt von grundlegenden ethischen Werten und nicht nur von kommerziellen Zielen oder technischen Überlegungen geleitet wird.
Über den Autor
Valère Rames, Deep Tech- und Algorithmus-Experte ist Partner bei der deutsch-französischen Venture Capital-Gesellschaft Hi Inov und unterstützt seine Portfolio-Unternehmen bei ihrer internationalen Expansion, rechtlichen Angelegenheiten, HR sowie Entwicklung. Valère hat ein Ingenieursdiplom in Informationstechnologie und einen Master in Corporate Finance.
Startup-Jobs: Auf der Suche nach einer neuen Herausforderung? In der unserer Jobbörse findet Ihr Stellenanzeigen von Startups und Unternehmen.