BIG DATA, PHILOSOPHY AND ARTIFICIAL INTELLIGENCE.

ENGLISH FOLLOWS GERMAN

Gödel und Turing zeigen die Grenzen von Engeneering&Analytics. Big Data ist mehr als Daten und stellen den heutigen Rohstoff dar.

Big Data und Artificial Intelligence (AI) sind dabei weniger die Lösungen, als vielmehr Besen, die ein Zauberlehrling schwingt, sprich nicht wirklich weiß, was er tut.

Der Besen bestimmt schließlich sein Tun und das Ergebnis. Dennoch ist der Besen per se nützlich und sinnvoll. Das gilt für Besen, das gilt für Printzeitungen, das gilt für AI. Sie formen dadurch weder Zeit noch Raum.

Allgemein geht man von der „Four Stakes“ aka “Besen” aus und meint sich einem Renaissance-Künstler-Dasein nahe, der Zeit, Raum und “Narrative” formt. Das ist ein Irrtum.

Ja, man weiss, dass sich das Datenvolumen alle zwei Jahre verdoppelt und man kann so leicht errechnen, wann theoretisch die gesamte Welt sich selbst mit all ihren Atomen gespeichert hat. Und dann?

Das Reiskorn und das Schachspiel

Dazu gibt eine bekannte indische Fabel ein Bild –  heute nennt man solche Geschichten übertreibend “Narrativ”. Eine Begrifflichkeit, die wohl mehr der Ökonoie der Aufmerksameit und weniger der Ökonomie der Erkenntnis geschuldet ist – wonach sich ein Weiser eine bescheidene Belohnung ausgedacht habe: Er wünsche sich nur ein Reiskorn auf dem ersten Feld seines Schachbrettes, dann möge der Herrscher es am nächsten Feld verdoppeln und dann am nächsten Feld weiter verdoppeln und so fort bis zum Ende des Schachbrettes.

Wir wissen, selbst die heutige globale Reisernte könnte diesen „bescheidenen“ Wunsch nicht erfüllen. Gödel und Turing zeigen zusätzliche, andere Grenzen auf. Dazu kommt die übliche Kritik der Angst, es sei nicht normiert, was Big Date sei, es fehlen die Standards und vieles mehr. Stimmt.

Und – endlich – die 4 Stakes sind dann die vermeintliche Antwort, AI der Heiige Gral und man glaubt, mit Statistiken alleine Prognosen erstellen zu können. So hat man ein formidables Gemenge, wo man sich selbst ein wenig wie ein Wizzard, wie ein Merlin fühlt, aber man bleibt bestenfalls Zauberlehrling.

Egal ob man nun mit Hadoop antwortet, andere neue Datenbanksysteme aufsetzt (Non-SQL) und die offenen Fragen der Ethik zuschiebt, die kaum weiß, was sie mit dem Kuckucksei nun tun solle.

Allein, es bleibt der alte, leicht korkige Wein, der in neue Schläuche gefüllt wird. Sozialpartnerschaftliche Antworten helfen da auch wenig, wo irgendein Vermittler zwischen Philosophie und Technik/Unternehmemen vermittelt.

Verstand und so

Der menschliche Verstand, eigentlich Erkenntnisweise, ist nicht trivial und nicht nur im Gehirn lokalisiert, wo wiederum dieses gerne, aber fälschlicherweise, auf Logik reduziert wird.

Wäre es so, wir säßen noch nicht einmal in der Steinzeit am Feuerplatz ohne Feuer. Denn Logik alleine, und auch nicht Ethik möchte man hinzufügen, schafft keine Innovation, wie das Feuer, das Rad, das Alphabet oder die Perspektive.

Es ging stets darum, die Welt anders zu verstehen, zu sehen, zu begreifen. Das ist Kernaufgabe der Philosophie. Die großen Fragen, die großen Antworten, die Innovation, die Disruption.

Würde AI am imaginären, sprich noch nicht existenten Feuerplatz sitzen, und Lieder singen wollen, sie, die AI würde und könnte nicht das Feuer “erfinden”. Der Feuerplatz wäre noch heute kalt und die AI säße stumm da bewacht von Ethikpolizisten.

Es ist der ground zero. Wir bilden die AI in Abbilde unserer Intelligenz, über die wir kaum gesichertes Wissen haben, aber sehr stolz darauf sind.

Wenn sie nach unserem Abbilde geformt wird, ist dies nicht automatisch ein Kompliment und wünschenswert und Bescheidenheit würde nicht schaden.

Der menschliche Verstand hat nicht nur Einstein, Mendelssohn und Moses hervorgebracht, sondern Hitler, Charles Manson oder Stalin. Mehr in dem Artikel “Ground Zero“, jedoch die Frage, ob AI oder AIG möglich ist oder nicht, ist sekundär und fast schon religiös.

Philosophie hat hier einen ganzen Schlüsselbund in der Hand, um die Potentiale zu entsperren, weiß dies aber selber noch nicht, denn auch die Philosophie braucht ihre Disruption.

Sie lehrt und lernt zu sehr noch in ausgetretenen Pfaden einer postmodernen Komfortzonengesellschaft, wo der freundliche Bürokrat nebenan über den Forschungsantrag entscheidet.

Dass das nichts werden kann, liegt auf der Hand. So dümpeln Philosophie wie AI im Gleichschritt dahin, sehen sich aber nicht oder nur selten im Augenwinkel.

Und dieses Finden wiederum wird beispielsweise ohne Inituition, um nur ein Defizit zu nennen, nicht möglich sein. Wie von Philon bis Spinoza und weiter versteht man in der Philosophie , dass man Ratio und Intuition zusammenführen muß. Sie sind der rechte und linke Zügel, um den Wagen schließlich geradeaus zu lenken oder sicher um die Kurve zu bringen.

Ja, AI ist und muss möglich sein, aber offensichtlich nicht so, wie man sich diese vorstellt. Seit rund 70 Jahren beschäftigt man sich mit dieser Frage, AI herzustellen, und seit 70 Jahren gibt es keinen nennenswerten Fortschritt, sprich eine Serie von Mißerfolge.

Philosophie, beispielsweise, erschöpft sich nicht darin, bloß zwischen Epistemologie und Ontologie zu differenzieren und darauf dann alle Lösungsansätze aufzuhängen. Das ist schwache Philosophie.

Vielleicht Zeit, die alten Ideen und Konzepte und Fragen ad acta zu legen. Man ist vielleicht nur ‘eine Idee’ von der Lösung entfernt.

5th. Stake – Philosophie ist der Schlüssel

Was es braucht, ist den 5.te Stake, die philosophische Betrachtung, die Daten nicht nur beurteilt nach Güte und Qualität, sondern auch strategisch ordnet, neue Fragen stellt und neue Wertschöpfungsketten entwickelt.

Big Data – und AI oder AIG – ist heute mehr Synonym, dass die IT nun die Chaos-Grenze und die Schwelle der Inkompetenz erreicht hat, wo es völlig neue Denkansätze und Methoden braucht, die sich vielleicht weniger oder gar nicht digitalisieren und wägen lassen, aber dennoch real sind und den Gesetzen der Physik gehorchen. Es lässt sich ja auch kein Schwerkraftvektor in realiter programmieren, sodass er konkret meßbar wirkt.

AI in diesem ihrem heutigen Zustand jetzt zur Weltrettung einzusetzen, ist ein Selbstmordkommando. Vielleicht hat man Glück, und es geht gut aus. Da ist die Philosophie – vielleicht – aufgerufen und gefragt, denn die wirkliche Welt entzieht sich der statistischen Korrelation und dem Mapping.

Das bekannte ‘Mapping‘-Problem der AI ist nur ein Beispiel, ein Anwendungsfeld, welches zeigt dass Automatisierung, Rechenpower und viel Geld grundsätzliche philosophische Fragen und Themen nicht lösen, nicht hintergehen können.

Ein weiteres Problem, was gerne versteckt wird, ist das Datenproblem aka Big Data an-sich. Denn die Daten, mit welchen die Algorithmen trainiert werden, sind korrumpiert. Sie weisen alle massive Vorurteilsstrukturen aka ‘bias’ auf, wie das Projekt “Tay” von Microsoft aus 2016 sehr gut bewiesen hat und gerne versucht wird, es vergessen zu lassen.

Zur Erinnerung  Microsoft musste binnen 16 Stunden den Algorithmus ‘Tay’ von Twitter nehmen, da er zu einen antisemitischen Frauenhasser, der Hitler pries und den Holocaust leugnete, wurde.

Die Daten, auf welcher er trainiert wurde (Twitter) und sein algorithmisches Lernen, gerne beschönigend als ‘deep learning’ präsentiert, ließen kein anderes Resultat als Sexismus und Antisemitismus zu. Sowohl die Daten als auch die AI wiesen massive Vorurteilsstrukturen auf.

Und nicht weil sie von ‘weißen Männern” programmiert worden sind, was nebst bemerkt nicht stimmt, sondern schon der grundsätzliche Ansatz und Annahmen, sprich die weltanschauliche, theoretische Grundlage aka Fundament, von AI und Big Data das Problem sind.

Dies hat einerseits mit den Daten zu tun, andererseits mit dem Prinzip Algorithmus selbst zu tun, der im grundsätzlich in nahezu unendlichen Rückkoppelungsschleifen Daten in Klassen organisiert, immer und immer wieder.

Im Grunde weiß man nicht, was der Algorithmus wirklich macht. Der Besen schwingt sich selbst. Es ist offensichtlich, dass hier die Philosophie Antworten und Lösungen liefern kann, denn sowohl Big Data (als Chiffree für Daten und das Sammeln von Daten) als auch AI sind a-symetrisch, proprietär, selbstreferentiell und autoritäre Black boxes.

Sie, AI und Big Data, atmen den Geist der Unfreiheit. Ihre Grundlagen ist nicht die Freiheit. It’s freedom, stupid.

Darum scheitern sie und werden weiterhin scheitern, und das immer rascher. Es wird ohne Philosophie und Freiheit keinen Fortschritt in Sachen AI geben. Denn, will man AI im Angesicht des menschlichen Verstandes bilden, dann kommt man an Freiheit als Konzept nicht vorbei. Auch hier ein Feld, neben der Intution, wo Philosophie grundsätzlich ziemlich rasch Antworten und Lösungen liefern könnte.

AI und Big Data sind Strukturen, die jedem philosophischen Ansatz und dem Motor, der Basis von Innovation widersprechen: Freiheit.

Meint, Besen sind gut, aber man braucht bessere und neue Besen und die richtigen Besen. Man wird nicht einen Mähdrescher als Staubsauger in seiner Wohnung verwenden wollen oder einen Rechen, um den Boden zu kehren.

Dies meint, auch jener, der den Besen schwingt, braucht eine Überarbeitung, meint AI an-sich und schließlich “wir”, die den Auftrag zum Kehren geben, brauchen einen Paradigmawechsel. Aber das ist ein anderes Thema.

Die Grundlagen, die Basis der AI als solche sind falsch und konterproduktiv und behindern sich selbst und Innovation. AI und Big Data müssen auf ein neues Fundament gestellt werden, was ohne Philosophie nicht gehen wird.

Big Date und AI heute widersprechen grundsätzlich der Idee von Freiheit. Das gute ist, dass durch die immense Rechenleistungen und Datenfülle von Big Data und AI, diese vor aller Augen im Zeitraffer scheitern. Dieses Scheitern ist ein starkes Indiz, dass Freiheit als Prinzip immer überlegen ist.

Das fehlt Big Data und AI in ihrer aktuellen Verfasstheit. Ihre Strukturen sind grundsätzlich gegen Freiheit und widersprichen ihr. Sie müssen daher scheitern. Man wird keinen Fortschritt in AI und Big Data sehen, solange sie im Gegensatz zum Prinzip Freiheit stehen.

Man sieht, selbst wenn man es trivial und simpel anpackt, bedrängen einem sofort Fragen, die bereits vor mehr als 2.000 Jahren von der Philosophie gestellt worden sind. Im Zentrum ihrer Antworten standen stets die Freiheit, die Vernunft, die Ethik und der Paradigmenwechsel, sprich neue Weisen, die Welt zu betrachten.

Aber aus anderen Gründen, als jene die für das grundsätzliche Scheitern von AI verantwortlich sind, sind diese Fragen bis heute noch ohne gültige, bleibende Antworten. Philosophie ist der Weg zur Lösung, aber die Antworten müssen noch gefunden bzw geliefert werden. Auch hier ist viel zu tun.

David Deutsch hat recht bzw weist in die richtige Richtung, wenn er postuliert “Philosophy will be the key that unlocks artificial intelligence”. Vielleicht ist Philosophie per se der neue Algorithmus, den es braucht, der aber selbst erst geschaffen werden muss. Jedoch auch die Philosophie braucht zuerst ihre Disruption und Digitalisierung.

Seit Ende des 2.WK hat die Philosophie leider wenig zu bieten. Vielleicht müssen wir über neue Methoden wie Plattform-Philosophie nachdenken oder uns mit Crowd-Philosophie beschäftigen, um neue Ansätze zu gewinnen.

Jedenfalls wird es aber nicht die Schwarm-“Intelligenz” sein, bei der eine Menge dummer Leute gemeinsam schreien. Wenn Schwarm, dann ein Schwarm mit kompetenten Mitgliedern. Und selbst dann: Konsens bedeutet nicht Wahrheit.

Es gab Zeiten, da war es Konsens, dass die Welt flach wie eine Scheibe ist. Konsens ist keine wissenschaftliche Methode und keine Methode der Innovation, der Disruption. Konsens als Argument der letzten Instanz ist Feind der Wissenschaft und der Innovation.

Wir können das Scheitern der Schwarm-“Intelligenz” jede Sekunde in den sozialen Medien beobachten. Diese Schwärme sind dumm, töricht und nicht innovativ, geschweige denn intelligent.

Aktuell erschöpft sich die (teilweise selbstgewählte) Rollenzuweisung der Philosophie eine Art Polizist der Ethik zu sein, der da sagt, was AI darf und dürfen solle und was nicht. Das ist eher zu kurz gesprungen. Bevor man dies anstellt, sind wohl andere Hausaufgaben auf dem Tisch.

Hier wäre dann das Tor, wo viel Investment- und Risikokapital (VC) hineingehen kann, denn auch für den philosophical turn – und nicht nur ‘ethical turn’ – wird es Mittel- und Ressouceneinsatz und vor allem Manpower brauchen. Papier und Bleistift reichen da nicht aus.

Sie zu beantworten, zu lösen, kann Antworten und Lösungen für beispielsweise das Mapping-Problem und andere grundsätzliche Probleme, wie der Stoppunkt (Halting-Problem), Bertrand-Paradoxon, Opazität, Mensch-Maschinen-Teams, die McCarthy-Searle Debatte oder der Identitätssatz, um weitere Grundsatzproblem beispielhaft und nicht erschöpfend zu benennen, bei der Anwendung von AI liefern. Und dann kann man auch zur Ethik kommen, aber die bloße Reduktion der Ethik auf einen (politischen) Verbotsregister ist falsch.

Es geht hier um völlige neue Dimensionen und Cluster von Fragen an und für Cybersecurity bis hin zu E-Commerce vor dem Hintergrund des sich anbahnenden Quantencomputers und Quantenweb.

Auch Quantencomputing wird diese Grundsatzfragen nicht hintergehen können. AI wird an denselben Problemen und Grundsatzfragen scheitern; dies mit höherer Rechenleistung, was das Fiasko nur formidabler machen wird.

Big Data und AI können nur ihren Versprechen, ihren Hypes gerecht werden, wenn sie die Philosophie an Bord zu nehmen vermögen. Sonst bleiben sie die Herrscher, die dem Weisen immer wieder auf seinem Wunsch nach einer bescheidenen Belohnung reinfallen.

Es braucht eine ‘Advanced Philosophy’ für eine neue, bessere AI und Big Data, die hilft, die Welt besser und freier zu machen.

Of interest > Links

Data, Dream and Quale: 12 sentences on artificial intelligence&philosophy

The Dream and the General Quantum Field: sentences on artificial intelligence&philosophy

ENGLISH

Gödel and Turing show the limits of engineering and analytics. Big Data is more than data. Big Data and Artificial Intelligence (AI) are not so much solutions as brooms wielded by a sorcerer’s apprentice, i.e. not really knowing what he is doing.

The broom ultimately determines what he does and the result. Nevertheless, the broom is useful and sensible per se.

In general, people assume the “Four Stakes” aka brooms and think they are close to being Renaissance artists. However, they are not.

Yes, we know that the volume of data doubles every two years and it is easy to calculate when theoretically the entire world has stored itself with all its atoms.

The grain of rice and the chess game

A well-known Indian fable gives an image of this, according to which a wise man thought up a modest reward: He wishes only a grain of rice on the first square of his chessboard, then may the ruler double it on the next square and then double it again on the next square and so on until the end of the chessboard.

We know even today’s global rice harvest could not fulfil this “modest” wish. Gödel and Turing show other limits. Add to this the usual criticism of fear, that there is no standardisation of what Big Date is, that there is a lack of standards and much more. True.

And then the 4 Stakes are the supposed answer, AI is the Holy Grail and you think you can make predictions with statistics alone. So you have a formidable mixture where you feel a bit like a wizzard, like a Merlin, but you remain a sorcerer’s apprentice at best.

Regardless of whether one answers with Hadoop or sets up other new database systems (non-SQL), it remains the old, slightly corked wine that is poured into new wineskins. Responses based on social partnership are also of little help where some mediator mediates between philosophy and technology/company.

Mind and some other issues

The human mind, actually a mode of cognition, is not trivial and is not only located in the brain, where this in turn is reduced to logic; both reductions are wrong.

If it were so, we would not even be sitting at the fireplace in the Stone Age without fire. Because logic alone, and not ethics either, one might add, does not create innovation, like fire, the wheel, the alphabet or the perspective.

It has always been about understanding, seeing and grasping the world differently. That is the core task of philosophy. The big questions, the big answers, the innovation, the disruption.

If AI were to sit at the imaginary, i.e. not yet existing, fireplace and want to sing songs, it, AI, would not and could not “invent” fire. The fireplace might be for sure till today cold. AI would sit there silently guarded by the policemen of ethic.

It is ground zero. We form the AI into images of our intelligence, about which we have little certain knowledge, but are very proud of it. If it is formed in our image, it is not automatically complimentary and desirable and humility would not hurt.

The human mind has not only produced Einstein, Mendelssohn and Moses, but Hitler, Charles Manson or Stalin. See more in the article “Ground Zero“, but the question of whether or not AI or AIG is possible is secondary and almost religious.

Philosophy has a whole bunch of keys in its hand to unlock the potentials, but does not yet know this itself, because philosophy also needs its disruption. It still teaches and learns too much in the well-trodden paths of a postmodern comfort zone society, where the friendly bureaucrat next door decides on the research proposal.

It is obvious that this will come to nothing. So philosophy and AI bob along in lockstep, but do not see each other or rarely see each other in the corner of their eye.

And this finding, in turn, will not be possible without the method/approach ‘intuition’, to name but one deficit.

As from Philon to Spinoza and onwards, it is understood in philosophy that ratio and intuition must be brought together. They are the right and left reins to finally steer the chariot straight or safely around the bend.

Yes, AI is and must be possible, but not obviously in the way it is imagined. For about 70 years people have been dealing with this question of producing AI, and for 70 years there has been no significant progress, i.e. a series of failures.

Maybe it’s time to put the old ideas and concepts and questions to rest. Philosophy, for example, is not exhausted by merely differentiating between epistemology and ontology and then hanging all approaches to a solution on that. One is perhaps only ‘one idea’ away from the solution.

5th. Stake – Philosophy is the Key

What is needed is the 5th stake, the philosophical view that not only assesses data according to quality and grade, but also organises it strategically, asks new questions and develops new value chains.

Big Data – and AI or AIG – is now more synonymous with the fact that IT has now reached the chaos frontier and the threshold of incompetence, where completely new ways of thinking and methods are needed that can perhaps be digitised and weighed less or not at all, but are nevertheless real and obey the laws of physics. After all, no gravity vector can be programmed in realiter so that it has a concrete measurable effect.

Using AI in its current state to save the world is a suicide mission. Maybe you’re lucky and it ends well. This is where philosophy maybe is called upon and in demand, because the real world eludes statistical correlation and mapping.

The well-known ‘mapping‘ problem of AI is just one example, one field of application, which shows that automation, computing power and a lot of money cannot solve fundamental philosophical questions and issues, cannot circumvent them.

Another problem that is often hidden is the data problem aka Big Data itself. Because the data with which the algorithms are trained are corrupted. They all have massive bias structures, as Microsoft’s “Tay” project from 2016 proved very well and people like to try to make us forget it.

As a reminder, Microsoft had to take the algorithm ‘Tay’ off Twitter within 16 hours because it became an anti-Semitic misogynist who praised Hitler and denied the Holocaust.

The data on which it was trained (Twitter) and its algorithmic learning, euphemistically presented as ‘deep learning’, allowed no other result. Both the data and the AI showed massive bias structures. And these biases exist till today in all Big Data and AI structures.

And not because they were programmed by “white men”, which is not true, but because the fundamental approach and assumptions, i.e. the ideological, theoretical basis aka foundation, of AI and Big Data are the problem.

On the one hand, this has to do with the data, on the other with the principle algorithm itself, which basically organises data into classes in almost infinite feedback loops, over and over again. It is a black box based on unfreedom with a riddle inside.

Basically, you don’t know what the algorithm is really doing. The broom swings itself. It is obvious that this is where philosophy steps in and can provide answers and solutions, because both Big Data (as a cipher for data and the collection of data) and AI are a-symetric, self-referential, proprietary and authoritarian black boxes.

They breathe the spirit of bondage. They, AI and Big Data, breathe the spirit of unfreedom. Their foundation is not freedom. It’s freedom, stupid.

That is why they will fail and why there is no progress in AI. Because if you want to build AI in the face of the human mind, then you can’t get around freedom as a concept. This is another missing field, besides intuition, where philosophy could provide answers and solutions quite quickly.

AI and Big Data are structures that contradict any philosophical approach and the motor, the basis of innovation: Freedom. Means brooms are good, but you need better and new brooms and the right brooms. You won’t want to use a combine harvester as a hoover in your home or a rake to sweep the floor.

This means that the one who wields the broom also needs a revision, means AI itself and finally, “we” who give the order to sweep need a paradigm shift too. But that is another topic.

The foundations, the basis of AI as such are wrong and counterproductive and hinder itself to develop and block innovation. AI and Big Data must be placed on a new foundation, which will not work without philosophy.

Big Data and AI today fundamentally contradict the idea of freedom. The good thing is that due to the immense computing power and abundance of data of Big Data and AI, they are failing before everyone’s eyes in fast motion. This failure is a strong indication that freedom as a principle is always superior and biased structures and fundaments will always fail.

This is what Big Data and AI lack in their current state. Their structures are fundamentally against freedom and contradict it. They are therefore bound to fail. One will not see progress in AI and Big Data as long as they stand in opposition to the principle of freedom.

The fundamentals, the basis of AI as such are wrong and counterproductive and hinder itself and innovation. You see, even if you approach it trivially and simply, questions immediately beset you that were already asked by philosophy more than 2,000 years ago.

Their answers have always centred on freedom, reason, ethics and paradigm shifts, i.e. new ways of looking at the world. But for reasons other than those responsible for the fundamental failure of AI, these questions are still without valid answers today.

Many of the questions that (again) beset AI today and show it its fundamental limits were already asked by philosophy more than 2,000 years ago. For reasons other than those responsible for the fundamental failure of AI, these questions are still unanswered today. Philosophy is the way to the solution, but the answers still have to be found or delivered.

David Deutsch is right and points in the right direction when he postulates that “philosophy will be the key that unlocks artificial intelligence”. Perhaps philosophy per se is the new algorithm that it needs, but which itself must first be created. However, philosophy also needs its disruption and digitalisation first.

Since the end of the Second World War, philosophy has unfortunately had little to offer. Maybe we need to think about new methods like platform philosophy or crowd philosophy to gain new approaches.

In any case, it will not be the swarm “intelligence” where a lot of stupid people shout together.If swarm, then a swarm with competent members.

And even then: consensus does not mean truth. There were times when the consensus was that the world is flat as a disc. Consensus is not a scientific method and it is not a method of innovation, of disruption. Consensus as the argument of the last instance is the enemy of science and innovation.

We can see the failure of swarm “intelligence” every second on social media. These swarms are stupid, foolish and not innovative, let alone intelligent.

Because at the moment, the (partly self-chosen) role of philosophy is exhausted in the role to be a policeman of ethics, who says what AI is allowed to do and what it should not be allowed to do. That is rather too short-sighted. Before this is done, there is probably other homework on the table.

This might be the gateway where a lot of investment and venture capital (VC) can go in, because the philosophical turn – and not just ‘ethical’ turn – will also require funds and resources and, above all, manpower. Paper and pencil are not enough.

Answering them, solving them, can provide answers and solutions to, for example, the mapping problem and other fundamental problems, such as the stopping point (halting-problem), Bertrand-paradox, Opacity, Man-Machine-Ecosystem, the McCarthy-Searle debate or the identity theorem, to name further fundamental problems by way of example and not exhaustively, in the application of AI and Big Data.

And then you can also come to ethics, but only reduction to ethics as a ‘register of bans and gag orders’  is the wrong approach.

We are talking about entirely new dimensions and clusters of questions on and for cybersecurity to e-commerce against the backdrop of the emerging quantum computer and quantum web.

Even quantum computing will not be able to circumvent these fundamental issues. AI will fail on the same problems and fundamental issues; this with higher computing power, which will only make the fiasco more formidable.

Big Data and AI can only live up to their promises, their hypes, if they are able to take philosophy on board. Otherwise, they will remain the rulers who keep falling for the wise man’s desire for a modest reward.

There needs to be an ‘Advanced Philosophyfor a new, better AI and Big Data that helps make the world better and freer.

Of interest > Links

Data, Dream and Quale: 12 sentences on artificial intelligence&philosophy

The Dream and the General Quantum Field: sentences on artificial intelligence&philosophy

One thought on “BIG DATA, PHILOSOPHY AND ARTIFICIAL INTELLIGENCE.

Leave a Reply