Data are not neutral: The nature of the experiment determines its result. Consequences for Artificial Intelligence: End ‘Data Naivity’ and the Philosopher’s role (D/E)

English follows German

Seit dem berühmten Experiment von Schrödinger und seiner Katze weiß man, dass Daten, ja die Wirklichkeit durch den Beobachter mitbestimmt wird, manche meinen erst geschaffen.

Seither hat sich auf vielen Feldern der Wissenschaft die Erkenntnis durchgesetzt, dass der Beobachter nicht neutral ist, sondern maßgeblich die Daten, das Ergebnis vorgewegnimmt, mitbestimmt. Darum auch Doppelblind-Studien in der Medizin, um reine Placebo-Effekte auszuschließen. Die Reihe der Beispiele ist lang.

Die Tel Aviv University hat zu dieser langen Reihe, über die bestimmende Rolle des Beobachters ein weiteres Feld hinzugefügt: Die Neurowissenschaften.

Forscher der Universität Tel Aviv untersuchten 412 bereits durchgeführte Experimente mit Hilfe Artificial Intelligence. Sie fanden heraus, dass die methodischen Entscheidungen der Wissenschaftler tatsächlich das Ergebnis des Experiments bestimmten – und zwar so sehr, dass sie mit Hilfe eines Algorithmus vorhersagen konnten, welche Theorie durch das jeweilige Experiment mit 80 % Erfolg unterstützt werden würde.

Die Studie wurde von Prof. Liad Mudrik und Itay Yaron von der School of Psychological Sciences, der Sagol School of Neuroscience und dem Cukier-Goldstein-Goren Center for Mind, Cognition and Language der Universität Tel Aviv in Zusammenarbeit mit Prof. Lucia Melloni vom Max-Planck-Institut in Deutschland und Prof. Michael Pitts vom Reed College in den USA durchgeführt. Die Studie wurde in der Zeitschrift ‘Nature Human Behavior‘ veröffentlicht.

Konsequenzen für Artificial Intelligence: Ende der Daten-Naivität

In der IT werden Daten weitgehend als gegeben und neutral erachtet. Sie werden zwar aufbereitet, meist jedoch hinsichtlich ihrer Datenstruktur, sodass sie für eine computerisierte Auswertung verwendbar werden.

In der Black Box des Algorithmus, wo meist sich sehr wüste und kaum haltbare Annahmen finden, werden sie dann verarbeitet und zeitigen Ergebnisse. Daten gelten dabei als sakrosant, als der “Rohstoff”. Eine Metapher, die falscher nicht sein kann.

Daten sind kein eben kein unbehauenen Rohstoffe, die erst bearbeitet, veredelt werden müssen. Sie sind bereits vorgeformt, inhaltlich korrumpiert und nehmen das Ergebnis vorweg.

So kommt es, dass eine Artificial Intelligence (AI) wie das Beispiel Tay von Microsoft zeigte, Vorurteilsstrukturen produziert bzw verstärkt. Im diesem Fall wurde der Bot zu einem antisemitischen Frauenhasser. Gefüttert wurde er mit Daten von Twitter.

Philosophen an Bord Jetzt!

Mittlerweile muss man sich wundern, dass nicht schon aus Gründen der Datensicherheit, Verringerung von Datenkorruption und eben Beseitigung von Vorurteilsstrukturen nicht standardmäßig Philosophen mit an Bord sind.

Es geht nicht nur darum ethische Fragen zu beantworten, sondern Innovationen auszumachen und vor allem epistemische und ontologische Probleme zu lösen, denn Daten, die Wirklichkeit ist nicht einfach mal so naiv gegeben.

Eigentlich sollte in jeder IT-Abteilung eines Unternehmens mindestens ein Philosoph engagiert sein. Schon aus Gründen der Qualitätssicherung.

Beispielhaft führt dies Prof. Liad Mudrik, Co-Autor vorliegender Studie der Tel Aviv University aus, der eigentlich das in der Philosophie sattsam bekannte Phänomen der ‘Quale‘ hier beschreibt: “Die große Frage ist, wie das Bewusstsein aus der Aktivität des Gehirns entsteht, oder was den Unterschied zwischen bewusster und unbewusster Verarbeitung ausmacht. Wenn ich zum Beispiel eine rote Rose sehe, verarbeitet mein visuelles System die Informationen und meldet, dass ich einen roten Reiz vor mir habe. Aber was ermöglicht es mir – anders als beispielsweise einem Computer – diese Farbe zu erleben? Zu wissen, wie sie sich anfühlt? In den letzten Jahren wurde eine Reihe von neurowissenschaftlichen Theorien vorgeschlagen, um zu erklären, wie bewusste Erfahrung aus neuronaler Aktivität entsteht. Und obwohl die Theorien völlig unterschiedliche Erklärungen liefern, konnte jede von ihnen auf der Grundlage mehrerer durchgeführter Experimente empirische Beweise sammeln, um sich zu rechtfertigen. Wir haben all diese Experimente erneut untersucht und gezeigt, dass die Parameter des Experiments tatsächlich die Ergebnisse bestimmen.

Mit anderen Worten, es geht nun darum endlich die Daten-Naivität zu beenden. Datensätze, die meinen, was sie erhoben haben, bilden die Wirklichkeit bzw Realität ab, sind bestenfalls als naiv zu erachten: Daten-naiv.

Artificial Intelligence ohne die Kompetenz der Philosophie ist schlicht nicht mehr möglich und produziert systematisch eine schiefe, verzogene Fake-Realität, nach deren Bilder aka Ergebnisse und Prognosen sich dann Milliarden von Menschen orientieren sollen.

Es ist offensichtlich, dass dies nicht gut ausgehen und auch kein nachhaltiger Erfolg beschieden sein wird. Dies gilt nicht nur soziale Wirklichkeiten, sondern für Wirklichkeiten an-sich, womit man wieder beim Ausgangspunkt wäre: Schrödingers Katze, die die AI bis heute so krampfhaft ignoriert. Denn das Fundament, die Daten, sind eben kein Fundament. Sie brauchen überhaupt erst ein solches, um Daten zu sein.

ENGLISH

Since the famous experiment of Schrödinger and his cat one knows that data, yes the reality is co-determined by the observer, some says only created what is rubbish.

Since then, in many fields of science, the realization has prevailed that the observer is not neutral, but significantly predetermines the data, the result, co-determines. This is why double-blind studies in medicine are carried out to exclude pure placebo effects induced by the observer. The series of examples is long.

Tel Aviv University has added another field to this long line, about the determining role of the observer: Neuroscience.

Tel Aviv University researchers examined 412 experiments already conducted using Artificial Intelligence. They found that the scientists’ methodological choices actually determined the outcome of the experiment – so much so that they were able to use an algorithm to predict which theory would be supported by the particular experiment with 80% success.

The study was conducted by Prof. Liad Mudrik and Itay Yaron of the School of Psychological Sciences, the Sagol School of Neuroscience and the Cukier-Goldstein-Goren Center for Mind, Cognition and Language at Tel Aviv University, in collaboration with Prof. Lucia Melloni of the Max Planck Institute in Germany and Prof. Michael Pitts of Reed College in the US. The study was published in the journal ‘Nature Human Behavior’.

Consequences for Artificial Intelligence: The End of ‘Data Naivity’

In IT, data is largely taken as given and neutral. A kind of nature. They, the data, are processed, but mostly in terms of their data structure, so that they become usable for computerized analysis.

They are then processed in the black box of the algorithm, where very wild and hardly tenable assumptions are usually found, and produce results. Data is regarded as sacrosanct, as the “raw material” and the algorithm as the “tool”. Metaphors that could not be more wrong.

Data are not raw materials that have to be processed and refined. They are already preformed, corrupted in terms of content, and anticipate the result. Finally, the oberserver, the algorithm, is not taken into account. We get somethin what might be easily turn out to be a fake reality.

This is why artificial intelligence (AI), as shown by the example of Tay from Microsoft, produces or reinforces prejudice structures. In this case, the bot became an anti-Semitic misogynist. It was fed with data from Twitter.

Philosophers on Board Now!

In the meantime, one has to wonder why philosophers are not on board by default for reasons of data security, reduction of data corruption and the elimination of prejudice structures.

It is not just a matter of answering some ethical questions, but of identifying innovations and, above all, solving epistemic and ontological problems, because data, reality, is not simply given naively.

Actually, there should be at least one philosopher in every IT department of a company. If only for reasons of quality assurance.

This is exemplified by Prof. Liad Mudrik, co-author of the present study at Tel Aviv University, who actually describes the phenomenon of ‘quale‘, which is well known in philosophy: “The big question is how consciousness is born out of activity in the brain, or what distinguishes between conscious processing and unconscious processing. For example, if I see a red rose, my visual system processes the information and reports that there is a red stimulus in front of me. But what allows me – unlike a computer for example – to experience this color? To know how it feels? In recent years, a number of neuroscientific theories have been proposed to explain how conscious experience arises from neural activity. And although the theories provide utterly different explanations, each of them was able to gather empirical evidence to justify itself, based on multiple experiments that were conducted. We reexamined all these experiments, and showed that the parameters of the experiment actually determine its results.

In other words, the point now is to finally end data naiveté. Data sets that think what they have collected represents reality are to be considered naive at best: Data-naive.

Artificial intelligence without the competence of philosophy is simply no longer possible and systematically produces a skewed, distorted fake reality, according to whose images aka results and forecasts billions of people are then supposed to orient themselves.
It is obvious that this will not end well, nor will it have any lasting success.

This applies not only to social realities, but to realities as such, which brings us back to the starting point: Schrödinger’s cat, which AI has so convulsively ignored to date. Because the foundation, the data, is not a foundation. They need an observer in the first place in order to become data.