In dem in der FAZ erschienenen Text, Was der Künstlichen Intelligenz noch fehlt malt Kurzweil ein Bild, welches phantastischer nicht sein könnte: „Wie die vergangenen Jahre gezeigt haben, sind wir auf dem Weg, die Fähigkeiten des Neokortexes nachzubilden, bereits ein gutes Stück vorangekommen. Die letzten Defizite der KI lassen sich in verschiedene Hauptkategorien unterteilen, insbesondere: Kontextgedächtnis, Weltwissen und soziale Interaktion.“ Diese einleitenden Sätze setzen bereits eine Prämisse, welche sogenannte Künstliche Intelligenz, die eigentlich statistische Induktion genannt werden sollte, sprachlich in die Nähe zum menschlichen Denken rückt. Kurzweils erstem Satz widerspricht beispielsweise der renommierte französische Informatiker Francois Chollet, der die Deep-Learning-Bibliothek Keras initiiert hat, welche das Trainieren sogenannter Künstlicher Neuronaler Netze ermöglicht. Chollet hat deutlich gemacht, dass jene technischen Funktionen, die den derzeitigen Erfolg Künstlicher Neuronaler Netze ausmachen, wie zum Beispiel Backpropagation, Rectified Linear Units (Relu), Dropout Layers, Batch Normalization oder Layer Normalization vor allem der Optimierung von Rechenleistung dienen und in dieser Form im menschlichen Gehirn so überhaupt nicht existieren. Kurzweils Unterstellung, dass derzeitige Entwicklungen die menschliche Neokortex nachbilden, ist auch für die derzeit sehr erfolgreichen Bild-generierenden Modelle, sogenannte Transformer-Architekturen schlichtweg Unsinn. Ray Kurzweil lügt.
Er schreibt, dass es „letzte“ Defizite gäbe und nennt drei Beispiele: Kontextgedächtnis, Weltwissen und soziale Interaktion. Er behauptet also, der Hauptteil wäre bereits getan, und es sei nur noch ein Rest, ein paar Kleinigkeiten zu erledigen, um die Fähigkeiten des Neokortexes nachzubilden. Angesichts einer derart dreisten Verdrehung der Tatsachen, tut es weh ansehen zu müssen, dass die FAZ dieser pseudowissenschaftlichen Behauptungen überhaupt druckt. Kontextgedächtnis, Weltwissen und soziale Interaktion gehören zu den fundamentalen Problemen, welche die derzeitigen Statistikverfahren des Machine Learning von der Nachbildung menschlicher Denkfähigkeiten unterscheiden. Kurzweils Text ist durch und durch falsch und verdreht. Ray Kurzweil lügt
Literatur
Large Models of What? Mistaking Engineering Achievements for Human Linguistic Agency.
Abeba Birhane / Marek McGann https://arxiv.org/pdf/2407.08790
The empty brain. Your brain does not process information, retrieve knowledge or store memories. In short: your brain is not a computer.
Robert Epstein https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, https://dl.acm.org/doi/10.1145/3442188.3445922
Unhype Artificial Intelligence! A Proposal to Replace the Deceiving Terminology.
Hunger, Francis https://doi.org/10.5281/zenodo.7524493.