key: cord-0059142-bipd58yw authors: Dandekar, Thomas; Kunz, Meik title: Wir können über uns nachdenken – der Computer nicht date: 2020-10-27 journal: Bioinformatik DOI: 10.1007/978-3-662-62399-2_14 sha: 2d44278ec3a368eb7af5760224ca643fb10278c9 doc_id: 59142 cord_uid: bipd58yw Ein Computer kann über sich selbst nicht nachdenken, denn formale Systeme haben hier grundsätzliche Schranken (von Gödel und Turing exakt bewiesen). Menschen (und Lebewesen im Allgemeinen) denken zwar nicht formal exakt, können aber deshalb erfolgreicher über sich selbst bzw. alle grundsätzlichen Fragen nachdenken. Ziele und Werte müssen und sollten deshalb immer die Menschen vorgeben, besonders wenn die Computer immer mächtiger werden. Künstliche Intelligenz, insbesondere Deep Learning-Algorithmen und neuronale Netzwerke verhelfen den Fähigkeiten des Computers zu einem weiteren starken Aufschwung. Je mehr Eigenschaften eines Lebewesens nachgebildet werden (z. B. agieren in einer künstlichen Umwelt; nachbilden von Sprache und Emotionen), umso stärker werden seine Fähigkeiten. Bioinformatisch können die Eigenschaften der künstlichen Intelligenz beispielsweise für moderne Bildverarbeitung direkt genutzt werden, aber auch ganz allgemein zum Erkennen komplexer Eigenschaften („feature extraction“), Mustererkennung aus großen Datenmengen („Trainingsdatensatz“) und danach auch für einzelne Moleküle oder Sequenzen (Vorhersagen, beispielsweise für die Sekundärstruktur im Protein, für die Lokalisation in der Zelle etc.). überprüfen und nicht blind (oder gar "untergeordnet") glauben sollte. Selbstverständlich ist die Beziehung zwischen beiden Fächern nämlich eher herzlich. Es befruchten sich künstliche Intelligenzforschung und Bioinformatik intensiv gegenseitig. Beispielsweise sind etliche raffinierte Suchstrategien der künstlichen Intelligenz durch biologische Phänomene angeregt worden. Umgekehrt werden gerade neuronale Netzwerke (und auch Hidden-Markov-Modelle; Kap. 3) für viele Sequenz-oder auch mehr komplexe Vorhersagen in der Bioinformatik genutzt (z. B. für Signalsequenzen). Einige Eckpfeiler der künstlichen Intelligenz a) Prinzip: neuronale Netzwerke allgemein b) Software, die neuronale Netzwerke nutzt: NucLocP; SignalP oder für transmembranäre Proteine: TMHMM c) Deep Learning und andere modern Verfahren (Abb. 14.1) d) Expertensysteme -Beispielgebiet medizinische Informatik: z. B. Infektionen, Verbrennungen, Anästhesie -Wolfram Mathematica Die Abb. 14.1 verdeutlicht ein Beispiel, nämlich die Bilderkennung mithilfe von Deep Learning. Abb. 14.1a zeigt die Aufgabe: Es gilt, elektronenmikroskopische Bilder von C. elegans (links) mithilfe eines neuronalen Netzwerkes zu analysieren (Mitte). Da die Anzahl der Neuronen in der Mitte konvergiert, nämlich von 100 auf nur noch 50, ist es ein sogenanntes Deep Learning-Netzwerk. Dann wird schematisch eine Antwort gezeigt, oben sind helle Flecke erkannt (1), unten nicht (0). Darunter ist dann die Lernkurve des Netzwerkes für viele Versuche angegeben. Beim Training schneidet das Netzwerk sehr gut ab (blaue Kurve), beim Validierungstest (rote Kurve) muss erst noch mehr trainiert werden, dann werden die Ergebnisse gleich gut wie beim Trainingsdatensatz. Bei ausgereiften Deep Learning-Netzwerken sind die Leistungen natürlich besser als in dem Schema (7 % Fehler ist noch etwas hoch, aber dies ist ja nur ein Schnappschuss von der Entwicklung). Deutlich wird das in Abb. 14.1b demonstriert, da sieht man, wie dieser Algorithmus Bildeigenschaften lernt (links) und im Bild erkennt (rechts, rote Kreise). Bei den Expertensystemen wurde auch "Wolfram Mathematica" genannt, da dies in der Lage ist, selbstständig Differentialgleichungen zu lösen oder auch komplexe Integrale berechnen kann. Wie funktioniert biologische Selbstprogrammierung? Nun, dadurch, dass man in einer Umwelt selber aktiv agiert und dann Triebe befriedigt oder nicht und damit dann natürlich auch die Umwelt und sich selbst aktiv wahrnehmen kann. Ein Computer, der sich selbst so programmiert, hat zumindest ein echtes Wissen von Bedeutung, genauso wie ein Lebewesen (Abb. 14.2). Außerdem kann man einen Computer auch stochastisch konstruieren. Beispielsweise gehen Anstrengungen zur Altenbetreuung in Japan dahin, Computer so menschenähnlich wie nur möglich im Aussehen, bei Antworten etc. zu machen. Dieses Nachbilden nennt man Emulieren, und dies kann schon sehr gut einen Menschen nachbilden, hat aber bei normaler Programmierung die gleichen Beschränkungen wie oben bereits genannt. Aber man kann ja auch Computer gezielt mit neuronalen Netzwerken ausstatten und in einer künstlichen Umwelt Erfahrungen sammeln lassen und sie mit Antrieben etc. ausstatten. Und wenn dann noch eine gewisse Unschärfe hinzukommt, ist ja das ganze Design schon sehr nahe an einem Lebewesen. Damit können dann die grundsätzlichen Grenzen für formale Systeme immer besser überwunden werden. Das Problem wird dann aber verschärft, wie denn eine Beziehung zwischen diesen künstlichen, immer menschenähnlicheren Maschinen und den betroffenen Menschen gestaltet werden kann. Wieder kann eine menschliche (und nicht maschinenhafte) Lösung nur gefunden werden, wenn der Mensch selbstbewusst bleibt und menschliche Werte vorgibt. Wenn sich der Computer dann noch selbst vermehrt, ist er ein echtes Lebewesen. Es fehlt dann höchstens noch die Fähigkeit zur Evolution -aber genau das wollen wir ja schon aus Sicherheitsbedenken, aber auch aus ethischen Bedenken sicher nicht. Learning scheint eine neue Qualität hineinzubringen. Wir nutzen dies gegenwärtig beispielsweise für die Bilderkennung, etwa mikroskopischer Bilder. Allgemein kann man sagen, dass künstliche Intelligenz sehr gut das Erkennen komplexer Eigenschaften nachbildet (Fachausdruck: feature extraction; Mustererkennung). Dafür benötigen wir große Datenmengen (einen "Trainingsdatensatz") und eine Rückmeldung an das neuronale Netzwerk (von selbst: unsupervised learning; von außen: supervised learning), ob danach auch für einzelne Moleküle oder Sequenzen (Vorhersagen, beispielsweise für die Sekundärstruktur im Protein, für die Lokalisation in der Zelle etc.) die Vorhersage des Computers richtig oder falsch war. Eine raffinierte Suchstrategie, die ich auch selbst viele Jahre mit Begeisterung verwendet habe, sind genetische Algorithmen. Hierbei werden Lösungen im Computer mithilfe einer künstlichen Evolution durch Selektion, Mutation und Rekombination von digital einprogrammierten Chromosomen gezüchtet. Diese Chromosomen kodieren dann das Problem, das man lösen will. Dies funktioniert überraschend gut, wenn man ausreichende Populationen von Individuen und etliche Hundert Generationen Evolution betrachtet. Man kann so z. B. Proteinstrukturen aus der Sequenz durch geeignete Selektionsparameter mit kleinem Fehler zur beobachtbaren Struktur erhalten (Dandekar und Argos 1994 , 1996 , 1997 . Der "Haken" bei diesem Ansatz ist nur, wie man denn die Proteinstruktur effizient genug in den Chromosomen kodiert (z. B. durch "interne Koordinaten") und wie man die Selektion "richtig" gestaltet (viele Jahre Arbeit und benötigt dann eine ausreichende Zahl bekannter, experimentell aufgelöster Kristallstrukturen). Eine andere pfiffige Suchstrategie bei komplexen Problemen mit einem riesigen, oft hochdimensionalen Suchraum ist es, es den Ameisen gleich zu tun (ant colony optimization). Hierbei wird elektronisch ein Ameisenhaufen programmiert, und die einzelnen virtuellen Ameisen klappern den Lösungsraum ab. Dabei hinterlassen sie eine Duftspur. Diese Spur wird verstärkt und zu einer virtuellen Ameisenstraße im Computer verstärkt, wenn an der abgesuchten Strecke besonders gute Lösungen liegen. Auch dieses Verfahren ist erstaunlich schlagkräftig bei komplexen Problemen, braucht aber auch viel Geduld, bis man das Problem, welches man in der realen Welt lösen möchte, ausreichend in diesem virtuellen "Wald mit Ameisen" abgebildet hat, sodass die Lösungen tragfähig sind. Ein Durchbruch bei der Vorhersage von 3D-Strukturen von Proteinen gelang kürzlich Senior et al. (2020) . Hier wird zwischen positiv ("krank", alternativ: Ja, 1, richtig) und negativ ("gesund", alternativ: Nein, 0, falsch) wie folgt klassifiziert: • True Positive (TP; richtig positive Fälle): Test und Referenz positiv (Test und Referenz "krank") • False Positive (FP; falsch positive Fälle): Test positiv, Referenz negativ (Test "krank", Referenz "gesund") • False Negative (FN; falsch negative Fälle): Test negativ, Referenz positiv (Test "gesund", Referenz "krank") • True Negative (TN; richtig negative Fälle): Test und Referenz negativ (Test und Referenz "gesund") Für die grafische Darstellung verwendet man häufig eine ROC-Kurve (Receiver Operating Characteristic; x-Achse: Falsch-Positiv-Rate, y-Achse: Sensitivität), wobei der AUC (Area Under the Curve) ein Maß für die Qualität der Klassifikation ist (höherer AUC-Wert = bessere Klassifikation). Ein ideales Klassifikationsmodell hat eine 100 %-Richtig-Positiv-Rate (100 % Sensitivität) und 0 %-Falsch-Positiv-Rate (100 % Spezifität). Aber dies ist in Wirklichkeit nicht immer der Fall. Beispielsweise konnten wir in einer aktuellen Arbeit zeigen, dass eine neuartige Real-Time-PCR eine bessere Vorhersagekraft für die Detektion von Trypanosoma cruzi bei einer Chagas-Krankheit besitzt und hier bisherigen PCR-Methoden überlegen ist, aber eben nicht 100 % akkurat arbeitet (Kann et al. 2020) . Es ist in jedem Fall ratsam, dass man ein Vorhersagemodell immer anhand eines Trainings-und Testdatensatz erstellt und an mindestens einem unabhängigen Datensatz validiert, um so sicher seine Vorhersagekraft für eine mögliche Anwendung, etwa klinisches Entscheidungsunterstützungssystem, bewerten zu können. Künstliche neuronale Netzwerke: Eine weitere Möglichkeit des Maschinenlernens ist die Nutzung einfacher neuronaler Netzwerke, die aus Eingabe einer einfachen Zwischenschicht und einer Ausgabe bestehen. Verbindungen zwischen diesen drei Schichten werden verstärkt oder geschwächt, damit die Ausgabe möglichst treffsicher ist. Dazu wird das neuronale Netzwerk an einem Trainingsdatensatz trainiert (automatisch: unsupervised; mit menschlicher Überprüfung: supervised) und anschließend die Treffsicherheit an einem weiteren Testdatensatz überprüft. Das kann dann für das Erstellen einer optimalen Vorhersage für Helix-und Betastrandbereiche in Proteinstrukturen (Software PredictProtein, https://predictprotein.org) und für die Bestimmung der Proteinlokalisation genutzt werden. Netzwerk durch mehrere Schichten Zwischenneurone, die insbesondere dann in den späteren Schichten mit weniger Neuronen auskommen (und damit Ergebnisse zusammen führen, "konvergieren"). Das bildet -stark vereinfacht gesprochen -eine Abstraktion der vielen Inputs auf allgemeinere Begriffe nach. Diese Netzwerke sind komplexer zu trainieren ("back-propagation" und andere Schritte), schaffen aber, oft mit weiteren Strategien aus der künstlichen Intelligenzforschung weiter verbessert, auch Erstaunliches, etwa optische Bilderkennung von Leukämiezellen durch verbesserte Schwarmoptimierung (Sahlol et al. 2020 ) oder die automatische Erkennung der Sekundärstruktur und von Oligonukleotiden in elektronenmikroskopischen Aufnahmen (Mostosi et al. 2020) , sodass mit diesem Deep learning Ansatz schließlich sogar Antibiotika entdeckt werden können (Stokes et al. 2020 ) oder die Energiepotentiale und damit auch die dreidimensionale Struktur von Proteinen (Senior et al. 2020 ). Aber wie entkommen denn nun Lebewesen dem Gödel-Limit? Biologische Systeme wie der Mensch können fundamentale Probleme lösen, und zwar ohne, dass sie vor unlösbaren Entscheidungsproblemen verharren. Warum? Nun, das haben wir bei unseren systembiologischen Kapiteln weiter oben schon angedeutet. Biologische Systeme sind dafür selektiert, dass sie rasch möglichst optimale (im Sinne von "an die Umwelt angepasst") Entscheidungen treffen. Wobei eine Bakterie natürlich nicht wirklich über sich selbst nachdenkt. Wohl aber wird die Teilungsrate (also die Entscheidung über sich selbst, "sich teilen oder nicht"?) ständig und möglichst optimal (für maximale Überlebenschancen) an die Umwelt angepasst. Wir sehen dabei auch gleich den Unterschied zu formalen Systemen, und dies trifft dann auch auf wichtige Entscheidungsprozesse in höheren Lebewesen zu. Ein biologisches System wird im Zweifel (damit es nicht vor lauter Zweifeln ausstirbt) eine Entscheidung zwischen mehreren Varianten stochastisch (also zufällig) treffen, wobei aber die Zufallsgewichte wieder durch die Evolution so selektiert wurden, dass die resultierende Aktion im Mittel den besten Überlebenserfolg garantiert. Natürlich ist die moderne Neurobiologie gerade mithilfe der Bioinformatik schon erstaunlich weit gekommen. Wir haben ja bei unserem Kapiteleinstieg klargemacht, dass es wichtig ist, zu erkennen, dass biologische Gehirne und Computer grundsätzlich beide Rechnungen erstaunlich gut durchführen können, aber aus zwei unterschiedlichen Welten kommen. Der Computer ist exakt und oft erstaunlich schnell. In der Biologie ist es eher erstaunlich, dass Gehirne zu so schnellen und exakten Rechenoperationen fähig sind. Denn all das ist nur Mittel zum Zweck, es geht immer primär ums Überleben. Wer mag, kann das als wichtige Selbsterkenntnis mitnehmen. Unser Gehirn mag viel nachdenken, Kunst machen oder gedankenschnell von der nächsten Galaxis träumen, geschaffen war es dafür nicht. Es ist nur die leistungsfähigste Überlebensmaschine, die dieser Planet hervorgebracht hat, einschließlich dem Risiko, das Evolutionsspiel so schnell zu beschleunigen, dass niemand mehr mitkommt, auch unser Gehirn nicht (s. nächstes Kapitel). Natürlich können wir auch Philosophie machen und sogar das logische Gödel-Limit für Computer überwinden. Aber unser Gehirn wurde nicht dafür selektiert, besonders klar über die Welt nachzudenken, sondern in dieser Welt erfolgreich zu überleben, ganz gleich, wie schwer die Umwelt auch sein mag. Beispielsweise erhielten wir einen letzten Evolutionsschub durch die Eiszeit und einen ersten vor etwa zweieinhalb Millionen Jahren, als sich die Savanne ausdehnte. Erste zweibeinige Vormenschen begannen dort zu leben, fingen mit Händen, Faustkeilen und dann mit Speeren an, zu jagen, während die Schimpansen, seit sie sich vor etwa sieben Millionen Jahren von uns getrennt haben, weiter auf den Bäumen friedlich im Wald blieben (und als unsere nächsten Verwandten viel mehr Schutz verdient haben, als sie zurzeit bekommen). Wir wollen uns nun als Nächstes diese natürliche Hochleistungsintelligenz, das menschliche Gehirn, genauer anschauen. • Ein Computer (wie von Turing als Turing-Maschine konzipiert) kann über sich selbst nicht nachdenken. Formale Systeme haben grundsätzliche Schranken (von Gödel und Turing exakt bewiesen), was sie beweisen oder entscheiden können und was nicht. Menschen (und Lebewesen im Allgemeinen) denken zwar nicht formal exakt, können aber deshalb erfolgreicher über sich selbst bzw. alle grundsätz- * Deep Junior 13.8 war 2013 der beste Schachcomputer bei der Computer-Weltmeisterschaft. Autoren sind Amir Ban und Shay Bushinsky. Die Vorsilbe Deep bezieht sich auf die entsprechend starke Multiprozessorversion für Turniere neuronales Netzwerk sagt Signalpeptide bzw. Sekretion vorher A trial of Lopinavir-Ritonavir in adults hospitalized with severe covid-19 Folding the main chain of small proteins with the genetic algorithm Identifying the tertiary fold of small proteins with different topologies from sequence and secondary structure using the genetic algorithm and extended criteria specific for strand regions * Die drei Dandekar-Argos-Referenzen beschreiben, wie weit man mithilfe einer robusten und intelligenten Suchstrategie, genetischen Algorithmen, Proteinstrukturen falten und richtig vorhersagen kann. Natürlich kann man diese Methode auch für ganz andere Probleme nutzen [s. Goldberg, David Genetic Algorithms in Search, Optimization, and Machine Learning Chagas disease: detection of Trypanosoma cruzi by a New, High-Specific Real Time PCR A combined transmembrane topology and signal peptide prediction method Machines who think: a personal inquiry into the history and prospects of artificial intelligence. A K Peters Haruspex: a neural network for the automatic identification of oligonucleotides and protein secondary structure in cryo-electron microscopy maps Efficient Classification of White Blood Cell Leukemia with Improved Swarm Optimization of Deep Features Lineare Regressionsanalyse Plasma steroid metabolome profiling for the diagnosis of adrenocortical carcinoma Improved protein structure prediction using potentials from deep learning Mastering the game of Go with deep neural networks and tree search Survival analysis in clinical trials: basics and must know areas Machine learning in cell biology -teaching computers to recognize phenotypes A deep learning approach to antibiotic discovery Machine learning and its applications to biology A toolbox for functional analysis and the systematic identification of diagnostic and prognostic gene expression signatures combining meta-analysis and machine learning Remdesivir in adults with severe COVID-19: a randomised, double-blind, placebo-controlled, multicentre trial Understanding linear and logistic regression analyses Was bedeutet "Turing-berechenbar" bzw. "nicht Turing-berechenbar"?