Warum mir ZOOM suspekt ist
Vom HomeOffice aus mal fix eine Videokonferenz starten ist mittlerweile „Standard“. Exponentielle Beliebtheit entwickelte während Corona „ZOOM“. Anfängliche Sicherheitsprobleme scheinen gelöst. Je nach Sichtweise, wie „Sicherheit“ definiert wird.
Über Umwege ist mir ein ca. ein Monat alter Artikel vor die Füße gefallen, der sich mit „Stimmungskontrolle mittles KI“ beschäftigt. Der Zusatz »Zoom might be next« in der Überschrift weckte meine Aufmerksamkeit. Der Spiegel hat den Artikel ebenfalls entdeckt und eine „deutsch Version“ dazu veröffentlicht. Die ist kompakter, und verweist darauf, dass es keineswegs um eine ferne Zukunft, sondern um „heute“ geht.Zoom hat bereits ein Werkzeug, mit dem „Gefühls- und Verhaltensbewertung“ Verkäufer ihre Fähigkeiten optimieren können. Oder die Firma suboptimale Verkäufer erkennen und wieder dem Arbeitsmarkt zur Verfügung stellen kann: Dem vermeintlichen Nutzen solcher Software stehen turmhohe Missbrauchsoptionen gegenüber. Bereits der vermeintliche Nutzen ist ein fataler Ansatz. Wenn wir unsere Einschätzung anderer statt auf der eigenen Wahrnehmung auf den Bewertungen einer Software aufbauen, wird das verheerende Auswirkungen auf unser aller Sozialverhalten haben.
Wer jetzt die Kamera zu klebt und sich in Sicherheit wiegt, sollte sich vergegenwärtigen, dass die Stimmenanalyse schon länger als Werkzeug nutzbar ist (und Bestandteil des „Pakets“ sind – s. erster zitierter Artikel). Selbst das Verlegen auf „nur noch per E-Mail“ ist kein Ausweg: Mit der Textanalyse hat alles angefangen. Einen groben Überblick verschafft der Artikel »Marktüberblick: Zehn Tools für die Sentimentanalyse«. Das Bedenkliche an diesem Artikel: Hier wird ganz selbstverständlich der hohe Nutzen für den Verwender derartiger Software ausgeführt.
Ein Hinweis auf die Nutzung solcher „Werkzeuge“ erscheint ein Gebot des Anstands. Aus meiner Sicht sollte er verpflichtend sein,wenn eine Maschine mit am Tisch sitzt, die sich ausschließlich mit meinen Emotionen beschäftigt. Doch davon ist nirgends die Rede. Was nachvollziehbar ist, denn sobald mir das klar ist, beeinflusst es mein Verhalten. Es würde den Wert der Verwendung signifikant mindern, wenn mir klar ist, dass ich emotional ausspioniert werde (s. erster zitierter Artikel).
Während sich Nutzende solcher Produkte eine – vermeintlich – verbesserte Absicherung ihrer Entscheidungsfindung versprechen, berauben sie den damit Analysierten ihrer Individualität: Wer sich außerhalb des mittels „künstlicher Intelligenz“ ausgewerteten Korridore befindet, wird entweder sublim „reingeschubst“, wenn etwas verkauft werden soll, oder beispielsweise Verkaufende, sich Bewerbende, Interessierte – sicherlich weniger sublim – „rausgeschubst“, wenn sie außerhalb der geforderten Norm liegen.
Wenn Zoom die Integration entsprechender Fähigkeiten in ihr Konferenzsystem plant, wird das wohl kaum für alle zugänglich sein: Das ist eine gut monetarisierbare „Mehrwert-Dienstleistung“.
Sobald so etwas in der Welt ist, wird es benutzt. Von Firmen und Diensten, die es sich leisten können. Womit der Elefant im Raum steht, wie sich „normale Leute“ dagegen verwahren können, absehbar nur noch Ziel optimierter Verkaufsprozesse zu sein. Denn faktisch ist jegliche soziale Interaktion eine Art „Verkauf“: Mit diesem Artikel biete ich eine – meine – Meinung und Einschätzung an. Das ist – natürlich – tendenziös, wie es jeder Artikel ist, selbst solche, die sich um Objektivität bemühen. Allein das Weglassen oder Bekanntmachen einer Information beeinflusst die Aussage.
Solvente Anbieter, die mittels Stimm- und Videoanalyse in Echtzeit sehr tief in meine Persönlichkeit eindringen können, können „bekanntmachen“ und „weglassen“ aktiv steuern. Ich werde zu deren Spielzeug.
Meine Bereitschaft für Meetings via Zoom wird das beeinflussen. Wäre interessant, ob ich eine Zusicherung verlangen kann, dass keine derartigen Tools gegen mich eingesetzt werden – und was passiert, wenn doch, ich mir das allerdings ausdrücklich verbitte.
Das Bild stammt von Pixabay.