Portal für Politikwissenschaft

Dieser Artikel wurde veröffentlicht von: Logo
Portal für Politikwissenschaft
Osterstraße 124 | 20255  Hamburg 

Digirama

Foto: Gerd Altmann / PixabayFoto: Gerd Altmann / Pixabay

Künstliche Intelligenz (KI) und Digitalisierung
Neue Systemvoraussetzungen für Multilateralismus und Demokratie

Die Digitalisierung sämtlicher Lebensbereiche bietet viele Chancen und fordert auf unterschiedlichen Gebieten dazu auf, die rasanten Entwicklungen mitzugestalten – politisch, gesellschaftlich und privat. Es werden Beiträge über Digitalisierung und Künstliche Intelligenz aus den Bereichen (Cyber-)Sicherheitspolitik, Partizipation, Gesellschaft, Völkerrecht und Wirtschaftsrecht vorgestellt, in denen durch die Einführung von Digitalisierung und KI das Politische verschiedenen Wandlungsprozessen unterworfen ist. Als Klammer erweist sich in allen Beträgen die Erkenntnis, dass Digitalisierung und KI an sich keine Bedrohung für den Menschen nach Vorbildern aus der Science-Fiction darstellen, wohl aber Handlungsbedarf bestehe, die aktuellen Entwicklungen zu analysieren und je nach Ausgangslage möglichst gesamtgesellschaftlich mitzugestalten: So müssen strategische Fragen für die politische Gestaltung der digitalen Zukunft auf internationaler Ebene mitgedacht werden, weil die technologische Verflechtung verschiedenster staatlicher und nichtstaatlicher Akteure aufgrund globalisierter Waren-, Dienstleistungs-, Kommunikations- und Datenströme im hypervernetzten Zeitalter bereits Realität ist.

Maßgeblich geprägt werden diese Entwicklungen durch den Einsatz und die Verbreitung disruptiver Technologien: Künstliche Intelligenz markiert dabei die technologische Progression von einer lesenden zu einer lernenden Informationstechnik beziehungsweise von der Verarbeitung maschinenlesbarer zur Verarbeitung maschinenverstehbarer Daten, was im Ergebnis einer Simulation biologischer Intelligenzdimensionen entspricht. Der Kernbereich der KI-gesteuerten maschinellen Informationsverarbeitung stellt das maschinelle Lernen als einen Prozess von Mustererkennung dar, in dem sich Systeme durch die Nutzung des Feedbacks aus ihrer Interaktion mit der Umwelt optimieren. Durch die Kombination aus neuen Leistungsniveaus bei Hard- und Software und Datenverfügbarkeit wird somit ein neues Niveau der Berechen- und Beherrschbarkeit von Komplexität möglich, welches außerhalb der Reichweite menschlicher Kapazitäten liegt. Die hierdurch erreichte Überwindung von bloßer Rechenleistung in festgefügten Prozessen zugunsten selbstlernender Programme entfaltet gewaltige Potenziale und fordert zugleich ein hohes Maß an Verantwortlichkeit ein. Das derzeitige Stadium der Implementierung wirft dabei zugleich den Menschen als Tech-Anwender fundamental auf sich selbst zurück: Dies geschieht nämlich überall dort, wo er in unterschiedlichsten Lebensbereichen der Frage begegnet, wie sich im Umgang mit diesen Innovationen auch eigene kulturelle Normen, Vorstellungen und gar Vorurteile niederschlagen. Auf der anderen Seite gilt es daher zu beobachten, wie digitale Lebenswelten zunehmend die Anwender*innen selbst, ihre Wert- und Normvorstellungen oder schlicht den Umgang miteinander verändert. So sehen sich aktuell nicht nur Wirtschaft und Arbeitswelt durch fortschreitende Digitalisierung immensen Umbrüchen in Produktions- und Mitbestimmungsprozessen gegenüber, die es zu implementieren gilt.

Diese Aufgabe stellt sich auch Institutionen in politischen Systemen, ob demokratisch oder nicht. Die mit der Digitalisierung einhergehenden neuen Technikanwendungen werden bereits täglich weltweit von einer Vielzahl von Menschen ganz selbstverständlich angewandt, auch wenn nicht immer auf den ersten Blick erkennbar ist, dass dem Menschen im digitalen Raum oder in Form anderer Tech-Tools des Alltags zum Beispiel ein Algorithmus nach der Auswertung bestimmter zuvor gesammelter Daten gegenübertritt und gemäß seiner Zwecksetzung und seines Lernauftrags nach Präferenzen, Diagnosen oder schlicht Standortdaten sucht. Somit kann Digitalisierung nicht ohne die Fokussierung auf ihre Transparenz, ihre Effekte und Strategien betrachtet oder im Hinblick auf Mitbestimmungsprozesse ausgeklammert werden, da sie das Zusammenleben der Menschen, das Politische, im vorgefundenen Maße berührt: Die Auswirkungen dieser technischen Revolution sind daher schon heute mittelbar und direkt auf zwischenmenschlicher, nationaler und internationaler Ebene auf den Alltag der Menschen spürbar und es gelte Errungenschaften der Vergangenheit wie Demokratie, Sozialstaatlichkeit, Multilateralismus, Globalisierung oder Abwehrrechte des Einzelnen gegenüber dem Staat weiter zu erhalten:

Das Wirkspektrum reicht dabei erstaunlich weit von digitaler Überwachung, autonomen Waffensystemen, der Rückkehr zu Protektionismus und Nationalismus im Cyberraum, digitalem Wettrüsten unterschiedlicher Staaten bis hin zur Unterbrechung von internationalen Wertschöpfungsketten und Handelskriegen, wobei Letztere auf den ersten Blick zunächst wenig mit der hier vorgestellten Thematik zu tun zu haben scheinen.

KI und Digitalisierung stellen somit schon jetzt die neuen „Systemvoraussetzungen“ für Demokratie oder Multilateralismus dar und nicht lediglich ein Update, welches es einfach einzupflegen und damit politisch in bereits bestehende Prozesse und Strukturen zu implementieren gelte. Sie läuten einen Wandel ein, der so fundamental ist, dass sie nunmehr zur maßgeblichen Hardware werden, an das Demokratie und Multilateralismus sozusagen als Betriebssystem gestaltend anknüpfen müssen, da diese technischen Gegebenheiten und ihre Auswirkungen auf die conditio humana, aus der sie ja entstanden ist, nicht mehr verschwinden werden. Während Digitalität den Alltag somit bereits mehr und mehr durchdringt, vollziehen die nachfolgend vorgestellten Analysen in der Breite ihres Spektrums aus politikwissenschaftlicher Perspektive diese Entwicklung nach oder geben Anlass dazu.

Die Beiträge sind chronologisch in absteigender Reihenfolge sortiert.


Marina Weisband, im Gespräch mit Diana Huth
Digitale Beteiligung
Interview (Länge: 00:28:32), Bastian-Körber-Stiftung, 23. April 2020

In diesem Podcast bespricht Marina Weisband die Möglichkeiten, digitale Mitentscheidungsstrukturen zu schaffen: Diese Art von Mitbestimmung stehe noch ganz am Anfang, während digitale Mitsprache in Zeiten von Facebook, Twitter, Instagram und Tic Toc keinerlei Problem mehr darstelle, da diese Plattformen den Dialog über Themen ermöglichten und den kommunikativen Zugang zu politischen Entscheidungsträgern erweiterten. Solche digitalen Räume der Vernetzung unterscheidet Weisband indes ganz klar von den ihrer Ansicht künftig zu schaffenden digitalen Räumen, in denen Partizipation hingegen das Produzieren verbindlicher Entscheidungen ermöglichen solle und Erwartung und Selbstwirksamkeit zusammenwirkten, zum Beispiel durch einen Vertrag. Ein steter digitaler Dialog ohne verbindliche Entscheidungsfindung sei – bewusst zugespitzt formuliert – sogar schlechter als keine Beteiligung, da hierdurch wiederholt Frustration evoziert und erlernte Hilflosigkeit aufgebaut werde. Dem gelte es durch medienpädagogische Ausbildung zu begegnen, um demokratische Prozesse mit allen Facetten zu durchlaufen und als Teilnehmer gestärkt daraus hervorzugehen: Wo Enthusiasmus, Frustration sowie die Erkenntnis reiften, dass Arbeit an demokratischen Prozessen auch Einübung erfordert, könne von einer Aktivierung zur Beteiligung gesprochen werden. Digitalisierung könnte solche Prozesse in bisher nicht dagewesener Form ergänzend unterstützen, zum Beispiel durch Protokollierung, Strukturierung und Inklusion über örtliche Entfernungen oder sprachliche Hindernisse hinweg. Auf der Anwendungsseite müssten digitale Beteiligungsformate zudem niedrigschwellig und somit technisch möglichst anspruchsarm, das heißt barrierefrei und mit wenig Datenverbrauch, konzipiert sein. Es könne so ein dritter Raum zwischen dem der Arbeitswelt und dem Privaten entstehen, der den Menschen vermittele, dieser Raum gehöre ihnen. Er sei dafür da, ihnen themeninzidiert die verbindliche Möglichkeit zur Gestaltung – Bürgerbeteiligung wird hier im Sinne des organisationspsychologischen Begriffs der co-creation weiter gefasst – ihrer Lebenswelt zu eröffnen. Ziel sei es, den Menschen einen politischen Raum zu geben, in dem sie einander wahrnehmen und wertschätzen könnten und zur politischen Selbstwirksamkeit befähigt würden. Dabei hebt Weisband hervor, dass Digitalität den face to face-Kontext und somit die Beziehungsarbeit in Beteiligungsformaten nicht ersetzen könne. Zudem zwinge die allgegenwärtige Digitalität dazu, sich der Tatsache zu stellen, dass das Wissen nunmehr mannigfaltig und ungefiltert auf der Straße liege und man die eigene Kompetenz im Umgang damit hinterfragen und schulen müsse.

Verena Bader, Daniel Buhr
Die Ambivalenz des Neuen – Sozialer Fortschritt durch Plattformen, Blockchain und KI?
Friedrich-Ebert-Stiftung, WISO Diskurs 03/2020

Verena Bader und Daniel Buhr verwehren sich in ihrer Studie gegen pauschalisierte Bewertungen der aktuellen Digitalisierung als dem bedrohlichen Transformationsprozess der Gegenwart: Sie böte mannigfaltige Gestaltungsmöglichkeiten, da dem Einsatz und der Verbreitung von KI Gebote und Verbote, finanzielle Förderungen, Informationskampagnen, Schulungsangebote und gesetzliche Regelungen vorausgingen. All dies gelte es nun in einem gesellschaftlichen Diskurs und mit demokratischen Mitteln gemeinsam zu entwickeln. Für das Autorenduo zeige sich gerade in Zeiten populistischer Regierungen und autokratischer Systeme der Vorteil stabiler politischer Verhältnisse in vielen europäischen Demokratien, da diese Institutionen und etablierte Aushandlungsplattformen böten, welche Konsens und Kompromiss förderten und eine nachhaltige Akzeptanz für konkrete Lösungen erleichterten. Daher diskutieren Bader und Buhr Herausforderungen und Handlungsempfehlungen mit Blick auf die drei Politikfelder Arbeit, Gesundheit und Sicherheit und raten dazu, dass öffentlich wie privat mehr in Infrastruktur, in die Modernisierung des Wohlfahrtsstaats, in (Weiter-)Bildung, Forschung und Innovation investiert werden müsse. Zudem gelte es, an bestehende Stärken wie etablierte Wohlfahrtssysteme, eine im internationalen Vergleich gut ausgebaute medizinische Versorgung, soziale Standards sowie, Daten- und Verbraucherschutz anzuknüpfen. In der daraus resultierenden hohen Innovationsfähigkeit von Organisationen und Gesellschaften sehen die Autoren die Chancen eines dritten, europäischen Weges, der im Unterschied zur chinesischen (staatlich, autokratisch, top-down) oder zur US-amerikanischen Variante (Markt, Wettbewerb, Kontrolle) vielerlei Anknüpfungspunkte für eine gesamtgesellschaftliche Gestaltungsaufgabe angesichts der derzeit waltenden Digitalisierung böte.

artificiallawyer
Bias In Recruitment Software To Be ‘Illegal’ in New York
Artificial Lawyer, 12. März 2020

In diesem Beitrag geht es um ein Gesetzesvorhaben des New York City Council zum Verbot algorithmischer Voreingenommenheit in Human-Resource-Rekrutierungssoftware. Das Gesetz ziele auf jegliche Systeme bei der Personalentscheidung, das auf statistischer Theorie beruht: Somit werden lineare Regressionen, neurale Netzwerke, decision trees und andere Arten lernender Algorithmen mitumfasst. Es verlange, dass jede Firma, die ein automatisiertes System am Markt anböte, die Übereinstimmung der Software mit dem lokalen Arbeitsrecht gewährleiste und dies durch die Durchführung eines bias audit zertifizieren lasse. Ferner sollten Kandidat*innen darüber aufgeklärt werden, dass ihre Bewerbung ein solch automatisiertes System durchlaufen habe und welche Kriterien seitens der Software herangezogen werden. Dabei hebt der Beitrag auch Fragen zur Umsetzbarkeit solcher Gesetze hervor, wie etwa danach, wer für die audits solcher sehr komplexen Systeme qualifiziert sei oder wie auslegungsbedürftige Normen des Arbeitsrechts in dieser Form Anwendung finden könnten. Über all dem throne die anspruchsvolle Frage, wie man die philosophische Unmöglichkeit der völligen Eliminierung eines bias klären könne. Automatisierte Systeme in der Anwendungspraxis der rule of law zu unterwerfen, sei ein richtiger Schritt; in der Umsetzung indes stelle das Erreichen der Zielmarke einer arbeitsrechtlichen Voreingenommenheitsprüfung im Bereich digitalisierter Human Resources ein spannendes Unterfangen dar.

Annegret Bendiek / NadineGodehardt / DavidSchulze
Beyond hard science? Algorithmen und die Szenario-Analyse digitaler geopolitischer Konflikte zwischen der EU und China
SWP-Arbeitspapier der Forschungsgruppe EU / Europa, AP Nr. 01, Februar 2020 anlässlich der Thementagung der DVPW „Wie relevant ist die Politikwissenschaft?"

„Der Wettbewerb um die Kontrolle globaler Produktionsketten, technischer Ökosysteme, kritischer Infrastrukturen sowie die Mobilisierung privater wie wirtschaftlicher Expertise bei digitalen Fragen entwickelt sich zu einem dominierenden Strukturmerkmal internationaler Politik und beeinflusst neue geopolitische Rivalitäten“, schreiben die Autor*nnen einleitend. Wie lassen sich diese neuen und komplexen Entwicklungen in der digitalen Geopolitik angemessen einordnen und mögliche Konflikte rechtzeitig vorausschauen? Die AutorInnen stellen in diesem Arbeitspapier die Methodik einer KI-gestützten Szenario-Analyse in ihren einzelnen Untersuchungsschritten vor. Eine solche Analyse ermögliche schnelle Überblicke und tiefergehende Einsichten und biete sich als sinnvolle Ergänzung klassischer politikwissenschaftlicher Methoden an. In Kombination mit transparenter open source-Software, technischer Expertise, und replizierbaren Arbeitsschritten böten sie für die wissenschaftliche Politikberatung eine Möglichkeit, große Textdaten und diverses Fachwissen für die Einschätzung aktueller Entwicklungen praktisch nutzbar zu machen.

Amandeep Singh Gill
Imagining the AI future
IISS, Blogbeitrag, 2. Januar 2020

Amandeep Singh Gill fordert in diesem Beitrag die Etablierung rigoroser und vertrauenswürdiger Regelnetzwerke, welche in Zukunft den Nutzen Künstlicher Intelligenz zur Wohlfahrtsmaximierung ermöglichten. Die in diesem Prozess zu erzielende Inklusion setze ein gemeinsames und beschützendes Vorgehen voraus, sodass einerseits neue Akteure und Innovationen auf gesellschaftlicher Basis sowie die Prävention missbräuchlicher Monopole ermöglicht werden. Eine solche Anwendung müsse in Kollaboration von Regierungen, Privatunternehmen, Non-Profit-Organisationen und Technologen in sorgsam orchestrierter Risikoabwägung erfolgen: Wenn es beispielsweise um voraussagende Analysen zur Kriminalitätsbekämpfung gehe, müsste angesichts des Risikos sich tatsächlich realisierender und eskalierender Menschenrechtsverletzungen die systemische Möglichkeit zur Gegensteuerung mitgedacht werden Zugleich bedürfe es menschlicher und institutioneller Kapazitäten, sodass Institutionen wie Schulen, Universitäten oder Aufsichtsbehörden und Parlamentarier mit und von Künstlicher Intelligenz umgeben arbeiten könnten. Damit all dies nicht Utopie bleibe, fordert Amandeep Singh Gill, dem derzeitigen technologischen Wettbewerb entgegentretende und Anreiz schaffende Plattformen aufzubauen, die öffentliche Güter bereitstellen, die Unternehmen und Forscher zur Entwicklung nachhaltiger KI-Lösungen benötigen, als da wären: Pooled datasets, Leistungsvergleiche von Algorithmen, interoperable Standards, Beratung zur Datensicherheit, Regulatory Sandboxes auch außerhalb der FinTech, Rechenkapazitäten und Expertise. Als möglichen Startpunkt sieht der Autor zum Beispiel den Gesundheitssektor, bei dem es weniger geopolitische Empfindlichkeiten gebe.

Stefan Lücking / Amanda Witkowski
Technik : Künstlich, nicht intelligenter
Hans-Böckler-Stiftung, Mitbestimmung 01/2020

Stefan Lücking und Amanda Witkowski halten in diesem Beitrag fest, dass Algorithmen nicht intelligenter seien als die Menschen, die sie programmierten. Künstliche Intelligenz entscheide oft auf der Grundlage von Daten aus der Vergangenheit, als eine Art digitales Spiegelbild einer Welt mit all ihren Klischees und Vorurteilen. Daher bestünde die Gefahr, dass Diskriminierungen und Benachteiligungen sich nicht nur fortschrieben, sondern auch verfestigten. Wer solche Programme einsetze, müsse dies im Bewusstsein tun, dass es sich hierbei um statistische Programme handele – mit all ihren statistischen Fehlern. Die Autoren rufen daher zu einem kritischen Verständnis von Daten und deren Auswertung auf, sodass Personalverantwortliche sich dies vor Augen führend künstliche Intelligenz als Entscheidungshilfe nutzen und trotzdem Diskriminierung verringern könnten. Statistische Analysen könnten zum Beispiel bislang verdeckte Diskriminierungen offenlegen und Auswertungen den Unternehmen aufzeigen, wie sich Frauen und Männer oder Migranten über alle Bereiche und Positionen verteilten und so Bereiche mit sehr einseitiger Allokation sichtbar machen. Auch wäre es für Entscheidungsfindungen hilfreich, wenn die Programme Möglichkeiten böten, verschiedene Varianten zu simulieren, indem sich einzelne Merkmale stärker und schwächer gewichten ließen. Grundsätzlich gilt aus Sicht der Autoren jedoch: Je mehr individuelle Kreativität eine Entscheidung fordere, desto weniger eigne sich künstliche Intelligenz für die Aufgabe.

Roland Benedikter
Künstliche Intelligenz und Neurowissenschaften
Konrad-Adenauer-Stiftung, Analysen und Argumente 379, Dezember 2019

Roland Benedikter widmet sich dem neuen Forschungsgebiet der Brain-Brain-Interfaces, das an der Schnittstelle zwischen Digitalisierung und Neurowissenschaften liegt: Solche Gehirn-Gehirn-Schnittstellen (BBIs) seien der jüngste Schritt im Trend, biologische und technologische Informationssysteme miteinander zu verknüpfen. Dass nun Informationen direkt von einem Gehirn zu einem anderen übertragen werden, sei völlig neu. Dies erfordere daher schon jetzt gesellschaftliche Aufmerksamkeit, gehe es doch darum, zu fördern und zu regulieren, wo diese Art der Forschung an Gehirn-Gehirn-Verbindungen auch globale Probleme aufwerfe, für die das internationale Völkerrecht bemüht werden müsse: Ähnlich der Atomenergie besitze die BBI-Forschung ein Bedrohungspotenzial aufgrund der Gefahr des politischen Missbrauchs. Autoritäre Staaten könnten künftig solche Technologien zur sozialen Kontrolle und darüber hinaus in militärischen Weiterentwicklungen als neuartige Biowaffe einsetzen, wie auch Künstliche Intelligenz und Digitalisierung bereits heute von autoritären Staaten wie China zur sozialen Kontrolle eingesetzt würden. Kritiker sehen China auf dem Weg zum hypertechnologischen Überwachungsstaat und die Gefahr, dass China „‚seine technische Dystopie bald in alle Welt‘“ exportiere. Scheinen „wagemutige Experimente“ doch vor allem dem „Aufholen und Überholen“ der anderen zu dienen – den angeblichen „Vorteil“ (4) nutzend, dass autoritäre Gesellschaften keine langen Dialog- und Partizipationsprozesse brauchen, und zwar weder nach innen unter den Bürger*innen noch nach außen mit der Weltgemeinschaft. BBIs dürften nicht isoliert betrachtet werden, sondern gehören in den immer breiteren Kontext von Neurowissenschaften, Digitalisierung und Künstlicher Intelligenz. Zur Beurteilung ihrer Folgen bedarf es daher der Interdisziplinarität – nicht nur in Bezug auf die naturwissenschaftlichen Aspekte, sondern auch hinsichtlich ihrer gesellschaftlichen Bewertung. Moratorien zu BBIs bis zur ausreichenden Klärung diesbezüglicher Fragen seien nur international wirkungsvoll umzusetzen, sodass daher internationale, völkerrechtlich verbindliche Regeln benötigt würden. Ein besonderes Augenmerk sollte dabei auf die Forschungen autokratischer Länder gelegt werden. Gemeinsam mit ihnen müssen Regeln zum Umgang mit riskanten Technologien gefunden werden. Das werde aus Sicht des Autors ein wesentliches Thema künftiger Wissenschaftsdiplomatie sein.

Nigel Inkster
It’s time to stabilise cyberspace – our well-being depends on it
IISS-Analysis, 18. November 2019

Mit Nigel Inkster stellt ein Kommissar der Global Commission on the Stability of Cyberspace (GCSC) den Kommissionsreport zur Förderung der Sicherheit und Stabilität des Cyberraums vor. Das Internet sei nicht mit der Priorität der Sicherheit erdacht und anfällig für schädliche Aktivitäten seitens einer wachsenden Zahl von staatlichen und nichtstaatlichen Akteuren. Daher nähmen Schadaktivitäten vom Kreditnummerndiebstahl bis zu zwischenstaatlichen Gefechten im Cyberspace unterhalb der Ebene bewaffneter Konflikte zu, wo Cyberspionage und Cybersabotage auftauchten. Bereits der 2017 aufgetretene NotPetya-Exploit, ursprünglich auf die Ukraine zielend, habe führende globale Unternehmen und Häfen paralysiert und globale Lieferketten für einige Wochen unterbrochen. Hinzu kämen Attacken auf das Domain Name System, dem Adressbuch des Internets, und die wiederkehrend erzwungene Umleitung signifikanter Datenmengen des global traffic. Solche Taten bedrohten die Funktionalität und Vertrauenswürdigkeit des Internets, während das Internet der Dinge in den Startlöchern stehe und somit Millionen unsicherer und potenziell nicht ausreichend zu sichernder Anlagen, die sich, durch das Internet miteinander verbunden, einer massiv steigenden Anzahl von Attacken ausgesetzt sähen. Das Hauptaugenmerk des Abschlussberichts läge somit auf der gefährdeten Stabilität des Cyberspace, damit sichergestellt werden könne, dass das Internet generell für Anwender*innen erreichbar bleibe sowie sicher und verlässlich funktioniere. Hierzu müssten Akteure Zurückhaltung bezüglich bestimmter Aktivitäten üben, welche die Kerninfrastruktur des Internets (Router, Schaltknoten, das Domain Name System) schädigen könnten, und den Schutz dieser Komponenten vor Gefährdungen zum Bestandteil ihres eigenen Engagements machen. Zu den Vorschlägen der Kommission zählten daher Verhaltensstandards, die unterschiedliche Aspekte aktueller Herausforderungen für die Cyberstabilität adressieren. Sie basierten auf den Prinzipien, dass sich jeder Akteur für die Erhaltung von Cyber-Hygiene verantwortlich zeichne und das Engagement der multi-stakeholder-Gemeinschaft als unabdingbar hervorgehoben wird.

Annegret Bendiek / Martin Schallbruch
Europas dritter Weg im Cyberraum
SWP-Aktuell 2019/A 60, November 2019

Annegret Bendiek und Martin Schallbruch sehen in der Cybersicherheit für Europa eine Schlüsselfrage in der globalen digitalen Transformation. Die Hoffnung, dass das Internet überall Freiheit und Menschenrechte befördere, sei seit den Enthüllungen Edward Snowdens und der Nutzung digitaler Technologien für staatliche Überwachung lediglich noch bedingt realistisch. Beim Internet handele es sich gegenwärtig vielmehr um einen Raum, in dem Verteilungs- und Wertekonflikte ausgetragen und die zukünftigen Modalitäten der individuellen und gesellschaftlichen Selbstbestimmung ausgemacht würden. Die Technologie des Netzes und die dazugehörigen Anwendungen seien keine wertneutralen Instrumente, sondern normierten Entscheidungen und Handlungsweisen als Instrumente wertebezogener Politik, wie zum Beispiel der Streit um den chinesischen Technologiekonzern Huawei zeige. Cyberangriffe und ihre Abwehr forderten die internationale Kooperation gravierend heraus: Während die Komplexität und Interdependenz von digitalen Systemen rasant anstiegen, bliebe die Qualität der hierfür verwendeten Hard- und Software aufgrund fehlender personeller Kapazitäten oft mangelhaft und wenig abgesichert. Daher entstünden im Cyberraum permanent neue Angriffsziele. Der spezifisch europäische Zugang beim Thema Digitalisierung komme für die Autoren somit gerade in den Rechtsakten der EU zum Datenschutz und zur Datensicherheit zum Ausdruck: Die Datenschutz-Grundverordnung setze neue Maßstäbe bei der Aufgabe, eine Balance zwischen dem Schutz personenbezogener Daten und der Gestaltung eines freien Datenverkehrs im Binnenmarkt zu finden. Der Cybersecurity Act der EU lege somit einen rechtlichen Rahmen mit dem Anspruch globaler Ausstrahlung vor, da hierbei digitale Souveränität mit strategischer Verflechtung kombiniert werde, sodass die Verordnung einen dritten Weg Europas im Cyberraum ermögliche. Mit der Verschmelzung digitaler Märkte entwickelten sich aktuell global verschiedene Typen von regulatorischen Ordnungsmodellen: Das chinesische Vorbild, dem in ähnlicher Form Russland, der Iran und einige arabische Staaten folgen, stehe für ein Modell der autoritären Reglementierung des digitalen Raums, das mit dem Anspruch gleichwertiger Legitimität neben das Modell der liberalen und offenen Gesellschaft trete.

Norbert Arnold / Tobias Wangermann (Hrsg.)
Digitalisierung und Künstliche Intelligenz: Orientierungspunkte
Konrad-Adenauer-Stiftung 2018

Norbert von Arnold und Tobias Wangermann geben verschiedene Beiträge zu Befürchtungen und Ängsten bezüglich Künstlicher Intelligenz heraus. Diese habe wie alle Technologien Licht- und Schattenseiten, die eine Reflexion der Vor- und Nachteile sowie der Ziele, die es mittels der KI zu erreichen gelte, unabdingbar mache. Unter der Klammer des von den Herausgebern einleitend formulierten „Kritischen Optimismus“ stellen die nachfolgenden Autoren in ihren Beiträgen Aspekte Künstlicher Intelligenz und ihrer gesamtgesellschaftlichen Auswirkung in einer Welt im Wandel vor. Thematisiert werden unter anderem das Internet der Dinge, die Robotik und ihr Beitrag zu Wachstum und Wohlstand oder die Rolle der KI für den Standort Deutschland oder zur KI in den Medien. Zudem finden sich Beiträge zu Rahmenbedingungen, wie Transparenz und Kontrolle von algorithmischen Entscheidungen. Die Publikation thematisiert somit verschiedene Anwendungsfelder von Digitalisierung und Künstlicher Intelligenz und die damit zusammenhängenden ethisch-rechtlichen Fragen als Orientierungspunkte in der digitalen Welt.

René Röspel, im Gespräch mit Andreas Wille
„Big Data“, gleich Kontrolle und Profit?
Friedrich-Ebert-Stiftung, News, 6. August 2019

René Röspel, Mitglied der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“, hält eingangs fest, dass Dampfmaschine und Industrialisierung der Vergangenheit heute KI und Digitalisierung heißen und verweist auf die fundamentalen Auswirkungen der Industriellen Revolution auf die Arbeitswelt, um der Gestaltung der Zukunftsvision KI die richtigen Impulse zu geben: Der Mehrwert von KI müsse sozial sein, da viele Berufe zukünftig wegfielen, auch wenn dafür neue entstünden. Es wird daher darauf ankommen, diesen Prozess konstruktiv im Sinne der Arbeitnehmerinnen und Arbeitnehmer zu begleiten. So sei es wichtig, dass die Einbindung intelligenter Systeme transparent und nachvollziehbar geschehe und die Mitarbeiter*innen in den Betrieben an der Umsetzung beteiligt werden. Menschen müssten für den Umgang mit KI am Arbeitsplatz qualifiziert werden und gleichzeitig müsse der Arbeitnehmerdatenschutz fest verankert sein. Mit den aktuellen Entwicklungen der KI sei eine neue Stufe im Prozess der Digitalisierung erreicht, da KI erlaube, die Vielzahl der heute gesammelten Daten auf völlig neue Weise auszuwerten. Amazon, Google und Co., aber auch China und die USA wendeten erhebliche Ressourcen auf, um diese Analyse-Möglichkeiten nutzbar zu machen; Entscheidungen basierten zunehmend auf Algorithmen und der Basis von Künstlicher Intelligenz. Sie entschieden über die Sichtbarkeit von Nachrichten, Inhalten, Produkten, Preisen, sie entschieden über Kreditvergaben und Versicherungen oder überwachten den öffentlichen Raum. In der Fachwelt spräche man von „Big Data“ und „social scoring“ oder von „Digitaler Diktatur“. Dennoch dürfe die Formel – KI gleich „Big Data“, gleich Kontrolle und Profit nicht in Europa gelten, da auf Algorithmen basierende Entscheidungen und KI demokratische Kontrolle benötigten sowie einen entsprechenden Rechtsrahmen, der Missbrauch und Diskriminierung verhindere.

Kaan Sahin
Nationalismus 4.0
Internationale Politik 4, Juli/August 2019

Kaan Sahin erläutert, warum neue Technologien wie Digitalisierung oder Künstliche Intelligenz auch zu verstärktem Protektionismus führen können. Obwohl sie die Menschen verschiedener Länder verbinde und das Territorialprinzip eigentlich aufweiche, seien erste Anzeichen für die vom Autor vorgetragene These begleitet von einer Tendenz des allgemeinen Erstarkens national orientierter Regierungen sichtbar, auch in Demokratien wie den USA, Indien oder Brasilien. Der Grund, warum Staaten diese Entwicklungen antizipierten, läge in einer Kombination aus globalem Technologiewettrüsten, fehlender rechtlicher Einbettung, einem Zuwachs von Graubereichen und den digitalen Möglichkeiten innerstaatlicher Kontrolle. Der Begriff des „AI­-Nationalism“ (AI= artificial intelligence) beschreibe, dass Staaten ausländische Investitionen und Übernahmen von KI-Start-ups bremsten oder gar verböten, die Beziehungen zu nationalen Unternehmen intensivierten sowie Standards und Regularien international so setzen, dass die nationale Industrie davon profitiert. Dieser Trend beschränke sich aber nicht nur auf Künstliche Intelligenz, wie etwa der Beschluss der Regierung in Moskau zeige, wonach der Internetverkehr im eigenen Land lediglich noch über russische Server zu laufen habe. Auch in China verkündete 2017 die Regierung die Einführung von staatlich lizensierten Virtual Private Network Software (VPN)-Diensten, was deren eigentlichen Zweck nämlich die Verschlüsselung der Internetkommunikation und die Umgehung von möglichen Zensurmaßnahmen, ad absurdum führt und seither für die „Great Firewall of China“, den Sammelbegriff für staatliche Internetzensur, stehe. Auch wenn die technische Wirksamkeit einer solchen „souveränen Internet­infrastruktur“ immer wieder infrage gestellt werde, etabliere dies Verhaltensweisen und somit den Trend, dass das Digitale in den Dunstkreis nationalistischer Denkmuster gleitet. In diesen Kontext falle zudem das Horten von Daten, um bei der Datenökonomie im internationalen Vergleich die Oberhand zu haben. Die Frage, wie Technologien im Innern angewandt werden, werde daher den Wettbewerb zwischen liberalen Demokratien und digitalen Autokratien wesentlich mitbestimmen. Es sei selbsterklärend, dass diese Entwicklung dem traditionell deutschen Eintreten für den Multilateralismus auf internationaler Ebene zuwiderlaufe. Angesichts der steigenden Bedeutung des Digitalen werde internationale Technologiepolitik zum wichtigsten Spielfeld zwischen Multilateralismus und Nationalismus.

Paul S. Triolo, im Gespräch mit Martin Bialecki
„Eine verrückte Welt“
Internationale Politik 4/2019

In diesem Beitrag führt Martin Bialecki ein Interview mit Paul S. Triolo über die Konsequenzen der USA und China in ihrem Ringen um die Vorherrschaft im Technologiesektor: Die USA seien aufgrund ihrer Macht in der Lage, in diesen Bereichen unilateral vorzugehen, während Europa in diesen strategischen Konkurrenzkampf hineingerate, der bereits bei 5G aus Sicht von Triolo eskaliere. Dass diese Thematik die Welt auf technologischer Ebene in mindestens zwei Einflusssphären spalte und eine Art Anti-Globalisierung drohen könnte, sei eine der entscheidenden Fragen der Gegenwart. Momentan schienen die Beziehungen zwischen den USA und China eingefroren, obwohl zum Beispiel die US-amerikanische Halbleiterindustrie in großem Maße vom Zugang zum chinesischen Markt profitiert habe. US-Unternehmen machten Umsätze in China, die sie dann wieder in Forschung und Entwicklung investierten und dadurch Innovationen voranbrachten. Die Industrie kritisiere daher die staatlichen Bestrebungen, Wertschöpfungsketten zu entkoppeln, die zuvor drei Jahrzehnte lang optimiert wurden. Würde China in eigene Standards und Wertschöpfungsketten investieren, fände man sich in einer verrückten Welt wieder, in welcher der Nutzen von Technologien wie 5G, die die globale Vernetzung ja verbessern sollten, grundsätzlich infrage gestellt würde. Dem stehe die Befürchtung der US-Regierung gegenüber, dass die nationale Sicherheit in Gefahr sei, wenn die USA es zulassen würden, dass China 5G und KI dominiere. Dieses Narrativ überdecke derzeit in Washington die lange verbreitete Ansicht, dass die Globalisierung überwiegend Vorteile habe. Die europäischen Regierungen seien überrascht, wie schnell es zur Eskalation zwischen den USA und China kam. Sie hatten nicht erwartet, dass sie sich so bald entscheiden müssen, ob sie etwa chinesische Unternehmen boykottieren wollten oder nicht.

Oliver S. Kaiser / Norbert Malanowski
Technologie, Arbeit, Akzeptanz: Smart Data und Künstliche Intelligenz
Hans-Böckler-Stiftung, Working Paper Forschungsförderung 136, Mai 2019

Oliver S. Kaiser und Norbert Malanowski untersuchen, inwiefern innovative Technologien für Mitbestimmungsakteure ein wichtiges Thema darstellen und diese wissenschaftliche Expertise benötigen, um mitgestalten zu können. Das Working Paper dient vor allem dazu, relevante Trends frühzeitig zu erkennen und diese für eine prospektive Innovations- und Technikgestaltung im Dreiklang von Technik, Mensch und Organisation aufzubereiten. Das Vorhandensein smarter Daten stelle die Voraussetzung für Künstliche Intelligenz (KI) dar, denn durch das Erschließen von Unmengen von Daten, die als Big Data bezeichnet werden, sollen in der Regel Geschäftsabläufe und Entscheidungsprozesse in Unternehmen und öffentlichen Organisationen optimiert oder automatisiert werden. Grundlage für die massenhafte Generierung von Daten seien unter anderem vernetzte Sensoren in der Industrie, das Internet der Dinge, unstrukturierte Daten aus dem world wide web oder die Abwicklung digitaler Geschäftsprozesse. Vereinfacht werde das sogenannte Veredeln von Daten als Smart Data bezeichnet. Es dränge sich bei einer Beobachtung der gegenwärtig geführten öffentlichen Debatte der Gedanke auf, dass Künstliche Intelligenz schon in absehbarer Zukunft den Menschen deutlich übertrumpfen könnte. Dagegen wenden die Autoren ein, dass diese universelle, sogenannte starke KI selbst in Ansätzen noch nicht existierten. Alle praktischen Anwendungen der KI seien in der Regel hochspezialisiert und ihre Fähigkeiten nicht verallgemeinerbar. Eine sogenannte humanzentrierte Künstliche Intelligenz, die bereits auf wissenschaftlicher Ebene angegangen werde, sei nicht darauf fokussiert, den Computern Autonomie beizubringen, sondern es geht darum, Computer dafür zu nutzen, dass Menschen im Rahmen sogenannter hybrider Teams mit KI besser und klüger werden und eng zusammenarbeiteten. Anwendungsfelder dafür sind zum Beispiel Sprachtechnologie, Bildung und Qualifizierung sowie Arbeitsentwicklung. Eine innovations-, industrie- und arbeitspolitische Initiative könne einen Dialog zwischen den Akteuren von Arbeitnehmern, Unternehmen sowie Wissenschaft und weiteren thematisch relevanten Akteuren forcieren. Dabei gelte es zu berücksichtigen, dass zu emotionalen und ethischen Aspekten sowie zu Akzeptanz und Kontrollfragen von Künstlicher Intelligenz dann Antworten erreicht werden könnten, wenn ein gesellschaftlicher Diskurs dazu stattfände.

Daniel Voelsen
Die Zukunft der Künstlichen Intelligenz – welche Rolle können die Vereinten Nationen spielen?
Deutsche Gesellschaft für die Vereinten Nationen e. V., Meldung 4. Februar 2019

Daniel Voelsen erklärt, dass der Einfluss der Vereinten Nationen beim Thema KI aus strukturellen Gründen zunächst einmal begrenzt sei, da die Entwicklung von KI von Unternehmen vorangetrieben werde, die dem direkten Zugriff der Institutionen des VN-Systems entzogen sind. Es bestehe zwischen den Staaten auch in jenen Bereichen, in denen sie stärkeren Einfluss auf die Entwicklung hätten, kaum Einigkeit darüber, wie die Zukunft von KI aussehen solle, wie dies zum Beispiel die Debatten der Group of Governmental Experts (GGE) über die Regulierung autonomer Waffensysteme zeigten. Hinzu komme die enorme Ausdifferenzierung der KI-Forschung: Die Nutzung von KI im Militär, im Transport, im Gesundheitswesen oder auf den Finanzmärkten greife auf ähnliche Grundtechniken zurück, unterscheide sich jedoch zusehends derart, dass eine allgemeine Debatte um die politische Gestaltung von KI mittlerweile zu kurz greife. Die heute dominanten Methoden von KI seien indes im Kern datengetrieben: Sie können nur so gut sein wie die Daten, auf deren Auswertung ihre Analysen basieren und hierin liege die Chance für die Vereinten Nationen. Denn in einigen Bereichen sei ihre Expertise unverzichtbar, um die Datenauswahl anzuleiten und ihre Institutionen haben oftmals Zugriff auf einzigartige Datensammlungen. Hieraus ergäbe sich die Möglichkeit, diese Debatte in jenen Feldern zu prägen, in denen sie über Expertise und besonders gute Daten verfügten. Vor allem aber böte sich für die Vereinten Nationen die Chance, durch die eigene Arbeit politische Standards zur Nutzung von KI in politisch besonders sensiblen Bereichen zu beeinflussen Hinzu komme eine Vorbildfunktion dafür, wo KI gewinnbringend eingesetzt werden könne und für welche Zwecke KI-Systeme nicht genutzt werden sollten.

Ayad Al-Ani
Algorithmische Schlachten – Wie sich Außen- und Sicherheitspolitik in der digitalen Ära ändern müssen
Internationale Politik 01/2019

Ayad Al-Ani gibt einen Ausblick darauf, wie sich Sicherheitspolitik und Konfliktforschung aus deutscher Perspektive aktuell wandeln: Mehr und mehr Duelle fänden nun auf virtuellen Plattformen statt und strategische Vorteile lägen zunehmend in Zugriffen auf gigantische Datenvolumen. Notwendige taktische Fähigkeiten und zentrales Wissen manifestierten sich in lernenden Maschinen, die künftig auch Konflikte austragen werden. Künstliche Intelligenz würde zu einer Machtquelle, welche traditionelle Faktoren wie Bevölkerungsgröße, Rohstoffe und militärische Kapazitäten ergänze. Daher verhielten sich nun die USA und China als die führenden Digitalsupermächte immer antagonistischer. Deutschland müsse die eigenen Fähigkeiten in diesem Bereich erhöhen, doch eine solche Ambition müsse massiv darüber hinausgehen, was derzeit unter dem Label der Industrie 4.0 bekannt sei. Die Bundeswehr müsse wie jede Institution, die sich der Digitalisierung stellt, die Aufgabe meistern, vorhandene Fähigkeiten weiter zu optimieren und parallel so lange durch neue zu ergänzen, bis das existierende Modell in eine neue Organisation münde. Dies sei aus Sicht des Autors ohne Öffnung und Kooperation keinesfalls realisierbar.

Anja Dahlmann / Marcel Dickow
Präventive Regulierung autonomer Waffensysteme – Handlungsbedarf für Deutschland auf verschiedenen Ebenen
SWP-Studie 2019/S 01, Januar 2019

Anja Dahlmann und Marcel Dickow beleuchten in ihrer Studie die Debatte um die Regulierung von Lethal Autonomous Weapon Systems (LAWS) auf internationaler, europäischer und nationaler Ebene und leiten daraus Handlungsempfehlungen für Bundestag und Bundesregierung ab. Dabei haben sie drei Perspektiven im Blick: die technologisch-operationale, die rechtliche und die ethische. LAWS benötigen keine menschliche Intervention für die Auswahl und Bekämpfung eines Ziels, dies gelingt durch neuere Entwicklungen bei Sensortechnik, Rechenleistung und Softwarefähigkeiten durch mathematische Verfahren. Die Autoren argumentieren, dass die Bundesregierung, um ihrem Anspruch auf internationale Ächtung von LAWS gerecht zu werden, zunächst den Begriff ‚menschlicher Kontrolle‘ ausdifferenzieren sollte, mit dem Ziel, eine Regulierung von Entwicklung und Einsatz von LAWS zu ermöglichen – und zwar auf internationaler Ebene – damit das Thema militärische Robotik im völkerrechtlichen Verhandlungsrahmen der Waffenkonvention der Vereinten Nationen politisch handhabbar werde. Ein gemeinsamer Standpunkt der EU-Mitgliedstaaten, welcher die menschliche Kontrolle einfordere oder Vorschläge zu deren Ausgestaltung einbringe, könne einen entscheidenden Einfluss auf die Verhandlungen haben.

Christian Kellermann und Alexander Petring
Künstliche Intelligenz und Arbeit. Gesellschaftliche Dimensionen einer Technikfolgenabschätzung
WISO Direkt 18/ 2019

Christian Kellermann und Alexander Petring betonen in ihrem Beitrag die Wichtigkeit einer Technikfolgenabschätzung für den Bereich der Künstlichen Intelligenz. Organisationen, Verwaltung und Unternehmen, die Sphäre der Kommunikation, einzelne Personen als Arbeitnehmer*innen, Konsument*innn und Bürger*innen würden von ihr bereits jetzt in je unterschiedlicher Hinsicht betroffen. Diese unterschiedliche Betroffenheit von Berufen und Branchen erfordere einen differenzierten Blick auf die soziale Folgenabschätzung der KI – dafür seien verschiedene Betrachtungsebenen notwendig: die individuelle Ebene, die Unternehmensebene, die Branchenebene und die gesamtwirtschaftliche Ebene. Die Autoren sehen besonders in der gegenwärtigen digitalen Aufbauphase politischen Handlungsbedarf, um jenen Polarisierungstendenzen entgegenzuwirken, die sich bei allen größeren Transformationen zeigen. Zentral für solche Diskurse seien daher Verteilungsfragen sowie die Grenzen des KI-Einsatzes. Die gesellschaftliche Sorge vor weiterer Polarisierung bedrohe nicht nur den Zusammenhalt und die Integrationskraft einer politischen Gesellschaft, sondern auch die Grundlagen ihres ökonomischen Erfolgs. Schon jetzt seien aufgrund der in den vergangenen zwei Jahrzehnten gestiegenen sozialen Ungleichheit in vielen westlichen Industrieländern die Abwehrreaktionen gegenüber allen möglichen Formen von gesellschaftlichem Wandel zu erkennen. Dementsprechend komme der sozialen Gestaltung des Transformationsprozesses eine zentrale Bedeutung nicht nur für die ökonomische Wohlfahrt, sondern ganz grundlegend für den sozialen Frieden in einer freien und demokratischen Gesellschaft zu. Die Autoren hoffen daher auf ein Upgrade der Sozialen Marktwirtschaft.

Konrad-Adenauer-Stiftung e. V. (Hrsg.)
Vergleich nationaler Strategien zur Förderung von Künstlicher Intelligenz – Teil 1 und Teil 2
Konrad-Adenauer-Stiftung 2019 (Imprint)

Die Konrad-Adenauer-Stiftung stellt mit der zweiteiligen Publikation einen vergleichenden Überblick über die KI-Strategien wichtiger Volkswirtschaften vor, um damit die deutsche Debatte zu bereichern. Im ersten Teil werden die Strategien von Frankreich, Finnland, Südkorea, den Vereinigten Staaten sowie China zur Verbreitung von KI-Technologie vorgestellt, während in der Fortsetzung Kanada, Singapur, die Vereinigten Arabischen Emirate, Israel, Japan und Indien in den Fokus der Studie rücken. Wichtige Erkenntnisse ergeben sich hierbei vor allem in den Bereichen der inkonsistenten KI-Definitionen seitens der untersuchten Staaten, der Offenheit der jeweiligen Grundlagenforschung, des Antagonismus zwischen Supermächten und abgeschotteten Staaten oder des Einsatzes von KI in der Produktion 4.0 und in der Digitalen Gesellschaft 5.0. Dabei arbeitet die Studie auch Aspekte wie ethische Fragestellungen aus Sicht europäischer Staaten heraus oder die Bedeutung digitaler Ökosysteme für die Entwicklung von KI, da bereits heute ein Mangel an Rechenleistung und Innovationsinvestitionen einen massiven strategischen Nachteil darstelle.

Ludwig Siegele
Eine Frage der Zeit – Künstliche Intelligenz wird die Weltpolitik durcheinanderwirbeln
Internationale Politik 04/2018

Ludwig Siegele beschreibt, welchen außenpolitischen Herausforderungen sich speziell Deutschland künftig gegenüber sehen werde und wie es sich als derzeitiger Nachzügler der Digitalisierung noch profilieren könnte: Daten seien der wichtigste Rohstoff für KI und China verfüge über den weltweit tiefsten Datenpool, vor allem, wenn es um Verbraucher geht. In Zukunft dürften Daten, wie andere Rohstoffe, auf nationaler Ebene gemanagt werden und Daten-Protektionismus werde ein immer größeres Problem für globale Unternehmen. Die Zahl von Gesetzen, die Firmen verbieten, Daten zu exportieren, habe sich daher in der vergangenen Dekade mit 84 fast verdreifacht. Gute KI-Außenpolitik beginnt für den Autor somit zwangsläufig mit einer guten KI-Innenpolitik. Mehrere Länder haben diese Schlüsseltechnologie bereits zur nationalen Priorität erhoben und umfangreiche Strategiepläne veröffentlicht, darunter die Vereinigten Staaten und China, aber auch Frankreich, Südkorea und selbst kleinere Nationen wie Finnland. Im Gegensatz dazu stehe die deutsche Regierung noch am Anfang und die Republik sei bei der Entwicklung und Nutzung von KI allenfalls Mittelmaß. Nicht Pionier zu sein, bedeute aber auch, von den Erfahrungen anderer Länder lernen zu können: Die Bundesregierung müsse wesentlich ambitionierter vorgehen und nicht nur die Erforschung von einzelnen KI-Technologien stärker fördern. Stattdessen gelte es, den Aufbau und die Förderung eines starken und international wettbewerbsfähigen KI-Ökosystems in den Mittelpunkt zu stellen. Statt wie China und die USA auf Datenquantität zu setzen, sollte in Deutschland die Datenqualität im Vordergrund stehen, da sich mit wenigen, aber gut standardisierten und relevanten Daten oft bessere Ergebnisse erzielen ließen. Dabei gehe es nicht nur um die Ethik der Anwendung von KI, sondern um ein neues, smartes Betriebssystem für die Datenökonomie. Wie lassen sich Märkte mit diesem ungewöhnlichen Rohstoff organisieren? Wie lassen sich personenbezogene Daten sicher anonymisieren? Sollen Menschen für die von ihnen erzeugten Daten bezahlt werden?

Daniel Buhr / Nikolas Dietzel / Stewart Gold / Harald Kohler
Digitalisierung politisch gestalten
WISO Diskurs 09/2018

In dieser Studie geht es um die aktuelle Innovationspolitik vor dem Hintergrund der großen gesellschaftlichen Herausforderungen wie Klimawandel, wachsender Ressourcenknappheit, einer global wie innergesellschaftlich ungleichen Verteilung von Arbeit, Bildung, Nahrung oder Gesundheitsversorgung. In Deutschland konzentrierten sich die politisch Verantwortlichen bei der Entwicklung von Lösungsstrategien vor allem auf den technischen Fortschritt. Wie somit das Internet der Dinge, Blockchains, Smart Grids, Künstliche Intelligenz und 3-D-Druck den Alltag und das Berufsleben veränderten, wurde in der Vergangenheit seitens der Innovationspolitik nicht sehr intensiv in den Blick genommen. Die Autoren betrachten dies als Fehler, denn der Erfolg einer technischen Innovation bemesse sich am Grad ihrer Marktdurchdringung. Der Nachfrageseite komme eine entscheidende Funktion im Innovationsprozess zu. Wo liegen Bedürfnisse und Bedarfe? Wie werden neue Technologien benutzt? Welche neuen Dienstleistungen und Fertigkeiten werden verlangt? Wie verändert sich beispielsweise durch Digitalisierung unser Verhalten, und welche Auswirkungen hat dies auf Prozesse, Organisationen, Strukturen und Systeme? Eine zukunftsweisende Innovationspolitik habe dies in den Blick zu nehmen. Die vorliegende Studie zeige jedoch, dass sich diese Entwicklung in den Haushaltsmitteln sowohl des Bundes als auch der Bundesländer bisher lediglich ansatzweise finden lasse.

Verfasst von:

Tanja Thomsen

Erschienen am:

3. Juli 2020

Aus der Forschung

Manifest für das Web der Zukunft

„Das Web wird von mehr als vier Milliarden Menschen in allen Lebensbereichen genutzt, greift in das Leben aller ein und prägt die globalen Märkte, die Klimawissenschaft, politische Konflikte, Krieg, das soziale Gefüge sowie Ethik und Moral der verschiedensten Gesellschaften“, heißt es in einer Pressemitteilung der TU Berlin. Vorgestellt wird darin das „Manifest für Web Sciende 2020“ eines internationalen Teams, das der Frage nachging, wie die positiven Potenziale des Web gestärkt werden können.
weitere Informationen

 


Rezensionen

Marianne Kneuer / Helen V. Milner (Hrsg.)

Political Science and Digitalization – Global Perspectives

Leverkusen, Verlag Barbara Budrich 2019

Die Autor*innen dieses Konferenzbandes gehen den Fragen nach, wie mit den neuen und enormen Datenmengen in Politik- und Sozialwissenschaften umgegangen werden soll und wie sich Lehre und Forschung in den beiden Disziplinen ändern müssen? Mit 20 Beiträgen aus unterschiedlichen Ländern bietet der Band einen gelungenen Überblick über den Einsatz von digitalen Hilfsmitteln in Forschung und Lehre. Die überraschende Erkenntnis ist, dass die Digitalisierung einer Gesellschaft keine Rückschlüsse auf die Nutzung von digitalen Technologien an den Hochschulen zulässt.
weiterlesen

 

 

Paul R. Daugherty / H. James Wilson

Human + Machine. Künstliche Intelligenz und die Zukunft der Arbeit

München, dtv 2018

Paul Daugherty und H. James Wilson sind davon überzeugt, dass die Maschinen nicht die Weltherrschaft übernehmen und die Menschen am Arbeitsplatz nicht überflüssig machen werden. An zahlreichen praktischen Beispielen zeigen sie anschaulich, dass KI-Systeme vielmehr die menschlichen Fähigkeiten verstärken und damit Produktivitätszuwächse ermöglichen, die zuvor nicht möglich waren. Allerdings bleibt ihre Darstellung zu sehr an der Oberfläche, um völlig zu überzeugen, liefert gleichwohl aber wichtige Denkanstöße auch für die Politikwissenschaft und die Politische Philosophie.
weiterlesen

 


zum Thema
leben und arbeiten in der digitalen welt

zur Übersicht
Neue Beiträge

 

Suchen...