H. R. Karfunkel


No Pic available Karfunkel was born in 1938 in Israel. He studied biochemistry, mathematics and quantum chemistry at the University of Tübingen, Germany. Where he also obtained his professorship. In 1986 Karfunkel went to Ciba-Geigy which later combined with Sandoz, both at Basel, to become the Novartis company.



Interview with Professor H. R. Karfunkel

Industrial Quantum Chemist

Novartis, Basel, January 31, 1998; 19:00


 

Dr. Anders: Herr Dr. Karfunkel, ich frage in meinen Interviews gerne was war, bezüglich der Chemie, immer im Hinterkopf der Theoretiker bei ihren Berechnungen?

Dr. Karfunkel: Vielleicht ist der wichtigste Unterschied zwischen der angewandten Quantenmechanik, wie sie in der Industrie stattfindet und der akademischen, daß in der Industrie die Probleme nicht von dem Forschenden selbst formuliert werden. Das eben versteht man unter Freiheit der Forschung und da mißversteht man, daß eben im akademischen Bereich die Forscher ihre Probleme selber definieren. Wir bekommen in der Industrie die Probleme gestellt und müssen sie lösen - wir können uns nicht die Methode wählen, und dann Probleme dazu zuschneidern, sondern umgekehrt, Probleme müssen eine adäquate Methode zur Behandlung finden. Das ist der Hauptunterschied.

A: Ist die Industrie wirklich schon so weit wie es manchen Theoretikern, mit ihren Methoden, vorschwebt daß man sich quasi, in manchen Situationen, das Experiment sparen kann? Das ist also jetzt gefragt rein aus dem praktischen Gesichtswinkel heraus, betrachtet in Bezug auf den Chemiker in der Pharmaindustrie. Wenn ich als Chemiker sage, ich substituiere da oder dort, jenes verändert wenig, diese Reaktion kann ich mir gleich sparen. Oder ich mache dort eine Seitenkette dran mit einer - -

K: Gut, das ist jetzt ein grundsätzliches Mißverständnis von den Akademikern. Die Hauptprobleme in der Industrie bestehen, also gerade in der Pharmaindustrie, im Entdecken neuer Wirkstoffe. Die Optimierung eines Wirkstoffes wird mit Standardmethoden, mit billigen Methoden durchgeführt. Oder, hat man mal den Rezeptor, was in einer bestimmten Anzahl der Fälle mal der Fall ist, dann kann mit einfachen oder auch mit komplizierten Methoden - da besteht ein ganzes Spektrum - was machen mit der rechnerischen Chemie. Aber bei 95% der Probleme kennt man nicht den Rezeptor. Und da besteht das Problem, ein neues lead zu finden und da nützt die ganze Methodik überhaupt nichts. Es gibt heute neue approaches zu diesem Problem, das ist die kombinatorische Chemie. Das scheint also so ein ganz neuer Ansatz zu sein -

Unter ganz bestimmten Bedingungen kann man, wenn man einen bestimmten Rezeptor hat und man will eine Wirksubstanz entdecken, gibt dann dem ein Gemisch aus 1000 Substanzen in einem Experiment an. Die Grundannahme ist, daß der Rezeptor ganz spezifisch nur mit seinen Effektoren reagiert. Jetzt mißt man. Hat man eine Interaktion, weiß man unter diesen 1000 Substanzen befindet sich ein lead, das heißt, man hat den Aufwand, ob was vorhanden ist, um den Faktor 1:1000 reduzieren können. Das was man da anbietet, dieses Gemisch, nennt man auch kombinatorische Bibliothek. Und das Kunststück ist, die Bibliothek so aufzustellen, daß man rückwärts dann leicht gehen kann und innerhalb weniger Experimente feststellen kann, welche dieser 1000 Substanzen gewirkt hat. Da ist eine ganz neue Idee dahinter. Man kann somit mit hundertfacher Effizienz hervorbringen um irgendwas Neues zu entdecken. Aber das hat mit Quantenmechanik so gut wie nichts zu tun, leider.

Und vielleicht darf ich noch sagen. Die Quantenmechanik ist insbesondere da einsetzbar, wo man es mit relativ einfachen Molekülen zu tun hat, oder mit physikalisch wohl definierten Medien, meinetwegen Festkörpern. Leider Gottes ist die Biologie nicht gerade das geeignetste Objekt - der Witz der ganzen Sache ist, daß die Biowissenschaften eigentlich das ganze molekulare Modelling gepuscht haben. Einfach weil da das Geld saß. Die waren bereit, in der Verzweiflung halt, Geld auszugeben, Sponsoren.

A: Eine Frage in der Nähe dieses Themas: Sie kennen ja vielleicht Buch Das Milliarden Dollar Molekül?

K: Ja.

A: Ist da was dran, gibt es da Parallele zur der Realität?

K: Zum Teil, obwohl das ganze natürlich übertrieben ist. Dort, wo die Theorie sehr gut einsetzbar ist, gerade auf dem Gebiet wo es wenig eingesetzt wird, das ist die Materialwissenschaft, die Pigmente. Reaktionen, obwohl da viel gemacht wird - weniger in der Industrie, da wird noch viel, viel rumexperimentiert, da kann man Mechanismen zum Beispiel mit semiempirischen Verfahren gut aufklären.

A: Inklusive Lösungsmitteleffekt?

K: Also einer der Durchbrüche in den achtziger Jahren war eben eine grobe Berücksichtigung der Lösungsmittel als Kontinuum. Das war sicherlich eine ganz einfache Idee, die schon in den 70-er Jahren von Warshell - das geht zurück auf Onsager, wo man halt das Medium als polarisierbares Kontinuum betrachtet, das rückwirkt auch auf den Hamiltonian, den Hamilton Operator. Und die Elektronendichte hat wiederum eine neue Wirkung auf das Medium, polarisiert es entsprechend - das ist so ein selbstkonsistenter Algorithmus. Das mit dem Kontinuum ist relativ einfach. Nur, da gibt es auch verschiedenen Ansätze. Was da oft angeboten wird sind diese - da nimmt man an, daß das Molekül im Medium ein Ellipsoid darstellt. Das wird oft verkauft, das braucht man aber leider Gottes nicht, da Moleküle nicht ellipsoid sind. Also sehr weit davon entfernt. Insofern ist der nächste Schritt etwas teuerer, wo man wirklich die Form des Moleküls berücksichtigt. Da sind relativ gute Ergebnisse. Da zeigt sich zum Beispiel, daß die Aminosäure Glycin, eine ganz einfache Aminosäure, in der Gasphase als neutrales Molekül stabil ist und in Lösung als das Zwitterion. Für andere Disziplinen kann man die wichtigen Tautomere vorhersagen, unter Berücksichtigung der Lösungsmitteleffekte. Diese ganz primitiven Modelle - - . Man kann natürlich eins weitergehen und dann atomistische Modelle für das Medium erstellen, aber da kommt man wieder in akademische Sphären, wo der Aufwand unverhältnismäßig groß ist zum Resultat.

Vielleicht sollte man noch zu den Methoden oder den Theorieansätzen zusätzlich was Grundsätzliches sagen. Gerade in der theoretischen physik gibt es ja die Bändermodelle, also hochkomplizierte Modelle für alle Arten von Festkörpern. Ich rede jetzt von den Festkörpern weil das eine Substanz ist. Das Hauptproblem da ist, daß diese ganzen Verfahren erklären, aber nicht erlauben, ein neues Design zu machen. Und meine Praxis hat mich gelehrt, wenn jemand, ein Kunde zum Beispiel bei mir, den ich unterstütze, mit dem ein Projekt gemacht werden soll, was verstehen will, dann ist das Projekt von vorn herein gescheitert. Verstehen bringt nichts. Es gibt sogar in der Quantenmechanik ein Postulat, daß man nicht verstehen kann, im Prinzip. Aber verstehen, solange es nicht kombiniert ist mit designen, bringt für die Praxis kaum was. A posteriori Erklärungen sind oft ein Witz. Da macht sich leider Gottes die Theorie oft lächerlich.

Da hat ein Russe was publiziert über eine neue Modifikation von Wasser ...

A: Das Polywasser?

K: Ja , so was ähnliches, ja, in der Richtung, das Polywasser. Auf jeden Fall sprangen da sofort die Theoretiker ein und haben es dann durch Rechnung auch bestätigt.

A: Etwas anderes: Kutzelnigg sagte: Tja, leider haben wir nur nicht an das Fulleren gedacht, rechenbar ist es ja - -

K: Das stimmt nicht ganz: der Ozawa hat 1970 das Fulleren auf japanisch publiziert!

Ich habe darüber später publiziert, ich habe eine Publikation über die Fullerene. Die eben damit anfängt, daß in den 70-er Jahren schon der Ozawa - Ozawa ist einer der bekannten Organiker, ja Theoretiker, angewandter Theoretiker in Japan, der eine ganze Serie von Büchern herausgebracht hat. E. Ozawa. Er hat es sogar gezeichnet, naja, nagut, es gibt Leute die behaupten, daß er es nicht umgesetzt hat, aber den Fußball, den hatte sein Bild! Nur publiziert auf japanisch erstens, und zweitens war damals die Zeit noch nicht reif für theoretische Vorhersagen. Phantastereien, die nicht große Aufmerksamkeit erregten.

Kommen wir doch noch mal zum " ... erklären und nicht in der Lage sein zu designen ... ". Zum Beispiel in der Festkörperphysik. Es nützt nicht viel, ob ich Bänder berechnen kann. Ich will ja neue Materialien designen. Und eine Vorhersage über etwas Unbekanntes kann ich erst machen, wenn ich die Kristallformen vorhersagen kann, eine neue Kristallform, die noch nicht existiert.

Man muß in der Lage sein, erstmal - - . Also die Reihenfolge ist einfach falsch rum in der Theorie, ja? Oder in der angewandten Theorie! Man versucht die erklärende Theorie zu sehr in den Vordergrund zu stellen und die designende Theorie, was doch zum Beispiel in der Molekülmechanik der Fall ist. Man kann mit der Molekülmechanik sehr leicht designen, das geht in Sekunden. Und eines meiner Gebiete persönlich ist eben der Versuch, diesen Teufelskreis zu durchbrechen - - . Was wir in diesem Zusammenhang versucht haben, das ist die Vorhersage von Packungen von gegebenen Molekülen. Und erst wenn man das kann, kann man auch die Eigenschaften der Substanz als Festkörpers, vorhersagen.

A: Und was bedeutet das dann kommerziell ?

K: Kommerziell ist das natürlich enorm relevant weil ein Patent - - . Wenn eine Substanz als Festkörper appliziert wird, z.B. als Pulver, dann kann man nicht das Molekül patentieren, man muß den Festkörper patentieren. Das heißt also, wenn jetzt ein anderer kommt und eine neue Modifikation des gleichen Moleküls findet, kann er das Patent umgehen. Es ist nicht mehr geschützt. Also er kann das auf den Markt werfen, ohne die Patentlage berücksichtigen zu müssen. Es gilt nur für Festsubstanzen. Es werden vom Deutschen Patenamt am laufenden Bande Patente erteilt und der Modifikation, also wie sich die Moleküle packen. Als Beispiel: bei Pigmenten. Eine Packung ist rot, und bei der anderen, wenn sich die gleichen Moleküle ein bisserl anders packen, die gleichen Moleküle, ist das Pigment schwarz oder farblos.

A: Pigmente - meinen Sie da jetzt - -

K: Also zum Beispiel das, was in Autolacken drin ist. Dort, wo man mikrokristalline Substanzen in einer Matrix einbettet. Ist ein Riesenmarkt. Wegen des neuen Umweltbewußtseins will man weg von den Metallen und die meisten guten Pigmente, die haltbaren, sind leider Gottes Übergangsmetalle. Also das typische Beispiel: es gibt noch nicht sehr gute gelbe Pigmente, Cadmiumsulfid ist eine Katastrophe. Man kann also aus den Moleküleigenschaften nicht ohne weiteres auf das Produkt schließen. Das ist auch eine Sache, die nicht sehr bewußt ist in akademischen Kreisen. Aber das sind ganz handfeste praktische Sachen. Ein Pigment rausbringen können Sie nur als eine bestimmte Kristallmodifikation, die Sie charakterisieren können. Deshalb war halt dieses Projekt damals so wichtig.

Es gibt da noch so andere wichtige Sachen, optische Eigenschaften, aber weil die Moleküle an sich noch keine Produkte sind - -. Es sei denn, sie werden als Moleküle angewandt in der Lösung. Die werden dann aber formuliert in der Lösung. Aber ein großer Teil der pharmazeutischen Wirkstoffe wird als Pille verabreicht. Und da geht es schon los. Um nur zu erwähnen: Der größte Prozeß, der jemals geführt wurde, Patentprozess, war der zwischen der damaligen Ciba-Geigy und der Glaxo. Und es ging um Santax, das ist ein Ulcusmittel, und das ist ein Markt von acht Milliarden Dollar! Und da hatte Glaxo ein Patent. Das Patent lief aus und die Ciba wollte das als Generica auch auf den Markt bringen, weil das ein Riesenmarkt ist. Und daraufhin hat Glaxo verwiesen auf ein zweites Patent und behauptet, daß das, was die Ciba auf den Markt bringt, der zweiten Modifikation entspricht. Das war ein Prozeß, der hatte den Firmen etwa 100 Millionen Dollar gekostet - ich glaube, so weit ich weiß, hat Ciba dann den Prozeß verloren. Ich glaube da waren sehr viel Ungereimtheiten. Und jetzt muß man sich vorstellen: so ein Richter sitzt da und soll entscheiden, was ist Schmu? Jede Firma bringt eine Schar von Patentanwälten, Chemikern und Experten und Gutachten. Also daß ist nur, um die praktische Wichtigkeit dieser Sache in den Vordergrund zu stellen. Das Molekül allein, da ist da noch nicht viel getan.

A: Vor einigen Jahren hatte ich bei Hoffmann-La-Roche, ebenfalls in Basel, ein Interview mit einem theoretischen Chemiker, Herrn Straub. In diesem Zusammenhang konnte ich auch mit anderen Leuten der theoretischen Gruppe sprechen. Man äußerte sich dort insgesamt sehr pessimistisch über die Anwendung der Quantenchemie - auch in der von mir dort angesprochenen Festkörperchemie. Eine Ausnahme schien das Molecular Modelling zu sein. Und wenn ich mich recht erinnere hieß es, daß die restlichen Theoretiker befürchteten, quasi abgeschafft zu werden. Auch hatte ja Straub damals schon keine Theorie mehr gemacht, sondern war in der Dokumentation eingesetzt. In diesem Zusammenhang ist es jetzt interessant von Ihnen zu hören, wie bei Ihnen in der Novartis die Quantentheorie eingesetzt wird. Hat die Theorie Gewicht in Ihrer Firma?

K: Wenig, relativ wenig.

A: Was sind die Hintergründe? Weil die Organiker nicht wollen oder die Chemiker - es ist ja ein Chemiekonzern, die Materialchemiker - wollen die nicht oder können die nicht?

K: Die Chemiker oder die Theoretiker?

A: Die Chemiker.

K: Die Chemiker. Die Akzeptanz der Theorie ist recht limitiert.

A: In den Köpfen?

K: In den Köpfen und auch - - . Es ist auch schwer meßbar. Der normale Fall ist folgender: ein Chemiker, der zum Beispiel irgendeine Reaktion erklären will oder verstehen will, kommt zum Theoretiker und der soll ihm irgendwelche Berechnungen machen. Die erste Antwort der Theoretiker ist natürlich "ja", denn wir können uns kein Problem mit ab initio Verfahren entgehen lassen. Und dann sieht er das Molekül und kriegt 'nen Schreck. Einfach, die Moleküle in der Praxis, die sind zu groß, nicht wahr? Also auch egal wie schnell sich die Computertechnologie entwickelt, man kommt nicht mit. OK, dann schreitet man zur Semiempirie. Und da muß man dann noch - - ich halte sehr viel von der Semiempirie - - . Aber die praktischen Probleme sind oft, wenn man zum Beispiel irgendwelche Reaktionsmechanismen aufklären will, recht aufwendig. Es geht um Sattelpunktberechnungen. Die dauern ziemlich lange und die Ergebnisse sind doch ziemlich mager, weil sie mit der Semiempirie berechnet wurden. Und das enttäuscht doch die Chemiker.

Die Naßchemiker, in ihrem Element, die stellen mit Recht eine Frage und wollen eine Antwort. Die Semiempirie oder die angewandte Quantenchemie ist gut, wenn man mehrere Fragen stellt und Vergleiche haben will. Man stellt also zwei oder drei Alternativen zur Verfügung. Der Theoretiker soll vorhersagen, welche von denen ist die beste Methode, oder wie niedrig ist die Aktivierungsenergie. Da kann der Fehler groß sein, aber man kriegt immerhin noch die richtige Reihenfolge. Aber wenn dann jemand mit einer Reaktion absolut was haben will ist es oft enttäuschend, was die Theorie rausgibt. Der zweite Grund, weshalb die Theorie nicht sehr populär ist.

A: Also da sehen Sie vielmehr bei den Materialwissenschaften mehr Einsatz?

K: Na gut, da hat man die gleichen Probleme wie anderswo. Aber da kann man relativ viel machen mit der Theorie. Relativ viel. Wenn die Fragen richtig positioniert werden. Und die Fragen sollten, und das sieht der Naßchemiker nicht ein, immer vergleichende Fragen sein. Es gibt einen ganz einfachen approach, der oft sehr weit eindringt das sind die QSPR-Methoden. Das heißt, man versucht, ein Molekül zu optimieren, indem man es durch sogenannte Deskriptoren beschreibt, egal was das sind. In der Biologie sind es gewisse Eigenschaften von Substituenten, aber man kann es genau so gut bei den Additiven zum Beispiel bei Photoinitiatoren machen, die eine Radikalreaktion initiieren - - .

Man versucht dann eine Relation herzustellen zwischen errechenbaren Größen und irgendeiner wilden Meßgröße. Zum Beispiel eine wilde Meßgröße ist 'Meter Laufband' bis die Probe eine neue Farbe bekommt. Also es kann eine willkürliche Meßgröße sein - aber das Ziel ist, eine Zauberformel zu finden zwischen diesen Deskriptoren, die berechenbar sind, und dieser Meßgröße. Und da werden oft Deskriptoren, die quantenmechanisch berechnet werden, eingesetzt, mit ziemlich gutem Erfolg. Weil es da nicht auf die absolute Genauigkeit ankommt, sondern es ist einfach ein Deskriptor. Eine relative Größe. Es ist oft relativ einfache Sache, die vorhersagbar sind. Es wird auf Standardmethoden und Deskriptoren angewandt. Das Hauptproblem ist im Herleiten von geeigneten Deskriptoren. Und da muß man eine Idee haben vom Wirkungsproßess. Als einfaches Beispiel, das wir jetzt hatten: es ging darum, bei irgendeiner Klasse von chemischen Substanzen Lichtstabilisatoren zu entwickeln. Da hat man eben ein Triazolgerüst und einen Lichtstabilisator. Ein Lichtstabilisator ist eine Substanz, die die Strahlungsenergie vernichtet, ohne kaputtzugehen. Das ist eine Mikromaschine, die die Strahlung absorbiert und eben dann strahlungslos sich wieder regeneriert. Es geht meistens über intramolekulares Springen von Protonen. Bei der Anregung springt das Proton, dann springt es wieder zurück. Und wenn man diese Kenntnis mit berücksichtigt, kann man als Deskriptoren gewisse Parallelen im angeregten Zustand versuchen zu errechnen, mit quantenmechanischen, mit semiempirischen Methoden - es geht nur da. Und da kam Erstaunliches raus, eine gute Korrelation. Obwohl die Methoden an sich absolut völlig daneben liegen.

A: Das ist interessant in meinem Untersuchungszusammenhang, daß man also alte bzw. verbesserte semiempirische Methoden mit praktischem Erfolg einsetzen kann. Interessant dabei, daß man die Lösung nicht wie Ahlrichs in ab initio sind sondern auch in den semiempirischen Methoden. Ich weiß nicht, wie das SINDO von Jug in Hannover ist - -

K: Das SINDO von Jug ist - - also - ich kann es schlecht gebrauchen. Das ist zu einfach. Vielleicht ein Wort zur Semiempirie, warum ich soviel davon halte. Also es gibt diese zwei Richtungen: Einmal die ab initio Verfahren, wo man versucht, die Natur korrekt zu simulieren.

A: Man mogelt aber - -

K: Man mogelt, aber man kann es. Man versucht also ab initio, ohne empirische Annahmen, sozusagen die Natur korrekt darzustellen. In der Semiempirie geht man ganz anders vor: Zum Teil werden die Naturgesetze vergewaltigt und dadurch - -. Aber man versucht halt, die Experimente zu erklären. Das ist vielleicht ein gutes Beispiel oder, ja, nach meiner Sicht. Wissen Sie, was Weißmacher sind?

A: Die nehmen UV auf und transferieren es in sichtbares Licht.

K: Und zwar in die Komplementärfarbe des Lichts. Der Grundgedanke bei Weißmacher ist folgender: man hat dreckige Wäsche, man will sie weiß machen. Es gibt es zwei Methoden: man nimmt den Dreck weg, was ist oft schwierig ist mit der Faser oder man tut noch Dreck dazu, aber den komplementären Dreck und dann sieht's wieder weiß aus. Das macht etwa die Semiempirie. Man versucht halt nicht, den Dreck oder die unendlich schwierigen Prozesse, Korrelationen damit zu handhaben, sondern man tut Dreck drauf, indem man halt neue Naturgesetze erfindet, zum Beispiel zwei Elektronen in der Semiempirie interagieren nicht unbedingt nach dem Coulombschen Gesetz, das ist eine Vergewaltigung der Naturgesetze, sondern es hat eine empirische Kurve, die zwar im Unendlichen auf Coulomb Gesetz zurückgeht, aber für kleine Abstände ist es nicht mehr das Coulombsche Gesetz. Das ist der Dreck, der dazugetan wird. Und siehe da, es bringt eine Verbesserung. Also unter Umgehung dieser ganzen Komplikationen der ab initio Verfahren, die halt die Korrelation mit den heutigen density functionals, sogar mit großen Basisfunktionen und mit CI und so weiter, zu erledigen versucht. Leider Gottes ist die Semiempirie mit Dewar - - . Dewar war eigentlich der letzte große Semiempiriker. Und alles was es heute auf dem Markt gibt sind nichts anderes als Abwandlungen von Dewar. Die beiden führenden sind Stewart, das ist der Autor von MOPAC, und der Werner Thiel. Naja, es gibt noch ein paar andere - aber es ist immer noch der Formalismus, den Dewar, Ende der 60-er Jahre, auf die Beine gestellt hat. Leider Gottes gibt es keinen neuen Semiempiriker, der versucht, die gleiche Idee zu verfolgen, nur mit einem modernen Ansatz. Zum Beispiel explizierte Berücksichtigung der Korrelation, semiempirisch.

K: Irgend jemand betont z.B. eine semiempirische Methode, die etwa 10 mal so langsam ist wie das gängige semiempirische Verfahren MOPAC, aber ein Zwanzigstel des Fehlers. Und das ist nach meiner Überzeugung durchaus möglich. Aber es benötigt eine enorme Anstrengung und enorm viel Gelder. Semiempirie ist teuer weil - es sehr viele Versuche gibt und es müssen alle Atome gleichzeitig parametrisiert werden. Es hat keinen Sinn - was zum Beispiel im akademischen Programm - da die ersten sechs Elemente, also die Standelemente CHON und dann vielleicht Cl und vielleicht, naja, S, halbherzige Sachen, und P ist schon problematisch in der Theorie - -

A: Dann müßte man die relativistischen Effekte einbauen?

K: Die spielen da keine Rolle, erst in der Mitte. Aber gut, das ist das kleinste Problem - aber - - . Es gibt keine koordinierende Größe, Persönlichkeit. Das macht nur der Dewar. Und das fehlt. Und dann ist eben diese Sache daß, insbesondere hier in Deutschland, bei Vergabe von Drittmitteln eine knallharte Schule sozusagen das Sagen hat. Und sicherlich zum Teil mit Recht solche Absichten ablehnt, das zu finanzieren.

A: Semiempirie wird heruntergespielt, das höre ich immer wieder. Mit Semiempirie berechnete Ergebnisse kann man schlecht etwas veröffentlichen.

K: Ja, man kann es schlecht veröffentlichen, das wird oft abgelehnt. Obwohl es ist das meist-angewandte Programm, hauptsächlich wird heute meist das MOPAC-Programm angewandt, das ist sehr bequem anzuwenden, aber wenn man es genau nimmt, das ist der Stand der Anfänge der 60-er Jahre.

A: In QCPE gibt es diese Programme ja zu kaufen.

K: Es gab viele Versionen. Es ist mit Abstand das meisterworbene Programm vom QCPE. Mit Abstand - erst kommt MOPAC und dann kommt lange, lange nichts. Es ist in FORTRAN77 geschrieben. Der Autor von MOPAC ist der Jim Stewart. Es ist vielleicht ganz lustig, die story von MOPAC - er war in der Air Force Basis in Austin. Gut. Der hatte da Narrenfreiheit, praktisch., er konnte da sein Programm weiter schleifen und verfeinern.

A: Wer war der geistige Vater?

K: Dewar! Alle Wurzeln und Wege gehen zu Dewar. Und Stewart hat sich dann abgespalten. Da gab's dann das AMPAC-Programm, er hat das MOPAC-Programm entwickelt. War bei der Air Force und hatte da Narrenfreiheit. Und dann kam der Golfkrieg, das war 1990, glaub ich. Und da hatte die Air Force allen Mitarbeitern, wegen der Anschläge und so was, die durften nicht fliegen. Und der Stewart mußte auf einen Kongreß! Und die hat er mißachtet und wurde daraufhin gefeuert. Und der landete dann bei Fujitsu. Das ist ein Riesencomputerkonzern, und da hat er wieder Narrenfreiheit und darf sein Programm weitermachen.

Die sind auch die Besitzer von dem Programm und man kriegt es für 2000 Dollar, die professionelle Version. OK, und dann gibt es große Anstrengungen, die werden von Thiel gemacht, in Zürich. Und gerade das Problem ist halt, über diese einfachen Elemente hinauszukommen, Richtung Metalle, in die Übergangsmetalle, also immer mit Berücksichtigung von d-Orbitalen, da klappt es nicht mehr, zumindest nicht mit den alten Ansätzen von Dewar. Aber wie gesagt, mein Traum ist, daß jemand einen neuen Rahmen, keine neue Parametrisierung, - es muß ein neuer Rahmen. Es muß nicht sehr theoretisch sein. Es gibt nur einen Maßstab: es muß funktionieren, es muß so viel wie möglich erklären. Ein Argument der Theoretiker gegen die Semiempirie ist, daß Semiempirie nur interpretieren kann.

A: Kutzelnigg hat mal jemanden zitiert der sagte, daß mas zum Schluß mehr Parameter habe wie Meßgrößen -

K: So what? Erstens gibt es sicherlich nicht mehr Parameter als Meßgrößen wenn man die chemische Literatur betrachtet. Es gibt Milliarden von Meßgrößen, wenn man die ganzen experimentellen Ergebnisse als Meßgrößen betrachtet - also das ist kein Argument! Aber es muß ein Rahmen her, zum Beispiel eine Multiconfiguration-SCF-Methode die gleich eine Parametrisierung mitdurchgeführt - und es müssen auch alle Elemente sein. Es hat keinen Sinn, schrittweise voran zu gehen. Und man kann sich vorstellen was für ein enormer Koordinierungsaufwand es benötigt in der Forschungsgruppe. Es kann nur auf internationaler Ebene von einer irgendeiner Person, wie damals der Dewar, der eine ganze Schule unter sich hat. Das ist leider nicht der Fall. Aber wer weiß, vielleicht kommt es doch.

A: Die Leute der DFT-Methode würden sich jetzt ärgern, da sie ja hoffen, daß ihre Methode das einmal leisten soll?

K: Die DFT-Methode ist eigentlich - das basiert auf einem Postulat von Kohn und Sham, daß man eigentlich nicht die Elektronenwellengleichung haben muß, sondern es reicht die Dichtefunktion. Also die Gesamtelektronendichte, aus der kann man alles herleiten, in Theorie.

A: Welche Elektronendichte ist hier gemeint?

K: Die Standardelektronendichte. Von der Dichte ist alles ableitbar. Nur wie - es gibt kein Variationsprinzip in dem Sinne, das so einfach klar ist. Das tolle bei der Standard-MO-Methode ist, wo man die Wellenfunktion, eine Slaterdeterminante oder eine Kombination von Slaterdeterminanten berechnet, bis daß man den Algorithmus gleich mit hat. Die Quantenmechanik liefert nicht nur die Gleichung die zu lösen ist, sondern auch den Algorithmus des Variationsprinzips, das selbst sozusagen ein Limit dann - - . Das Bild ist ein Dichtefunktional. Das ist zumindest sehr schwer dann. Man muß zweifelsohne - es ist eine Methode, die absolut ihre Berechtigung hat. Es ist auch - - Theoreme betreffen meist den Grundzustand - was macht man mit dem angeregten Zustand? Aber da gibt es auch Ansätze. Also das ist hochinteressant - -

Ich verwende sie sehr viel. Mein Hauptanwendung, vielleicht muß man das sagen, wo setzt man in der Industrie Quantenmechanik ein, in großem Maßstab. Das ist für die Parametrisierung der Molekülmechanik. Sie haben gefragt, wie man jetzt von den Molekülen in viskosen Medien zu Polymeren geht - meistens molekülmechanisch.

A: Allinger -

K: Ja, gut - aber die haben eine a priori Parametrisierung. Das Postulat da ist, daß man das transferieren kann. Ein Atom in einer Umgebung ist invariant bei verschiedenen Molekülen. Das stimmt nicht so ganz. Und die Resultate sind sehr, sehr qualitativ! Zum Beispiel für die meisten Kristallvorhersagen kaum brauchbar. Man braucht - Sie haben vorhin von Del Re gesprochen - Berechnungen von Atomladungen für die Molekülmechanik: die sind völlig falsch! Und da setzen wir hauptsächlich die ab initio Methoden ein. Man lädt die Atomladungen so, daß das elektrostatische Potential, das berechenbar ist, so gut wie möglich approximiert auf die Atomladungen. Und die sind völlig anders als zum Beispiel Del-Re-Ladungen, oder Gasteiger-Ladungen, die basieren auf so Konzepten wie der Elektronegativität und sowas, und bei intermolekularen Kräften spielen die eine enorme Rolle, die elektrostatischen Kräfte. Wir können noch einen Schritt weiter gehen, die Polarisation betrachten. Und man hört oft ein Argument - - .

Das ist auch sehr interessant, wie man geschichtlich in die Irre geführt wird, denn in den 40-er, 50-er Jahren war der Papst auf dem Gebiet der Kristallvorhersagen oder Packungen ein Russe, eine ganze Schule; der ist dann irgendwann in die USA emigriert und hatte da einen Lehrstuhl. Und der hat bis in die 70-er Jahre gelehrt, der ist schon tot. Der war auch der Papst, der hat auch das Konzept, Modifikationen, Molekülpackungen vorherzusagen, also Substanzen, Festkörper, er hat das Konzept der dichtesten Packung auch eingeführt. Hat viele Maschinen konstruiert, vor der Computerära. Naja, mit Recht. Und er hat herausbekommen, es war auch evident, daß die Hauptkraft zwischen den Molekülen die van der Waals-Kräfte sind, die Dispersionskräfte. Jetzt kann man den Trugschluß daraus schließen: wenn man Kristallpackungen vorhersagen will, muß man die Dispersionskräfte genau vorhersagen. Das ist völlig falsch! Es kommt nicht darauf an, wer die Hauptkomponente der Kraft oder der Energie verursacht, sondern wer die Fluktuation in der Energie vorhersagt. Man will ja mehrere Modifikationen vergleichen mit der Energie. Da kann bei jeder Modifikation der Fehler groß sein, es kommt auf die Fluktuation an. Und wenn man die van der Waals-Kräfte, die Dispersionskräfte, bei allen gleich falsch macht, hat man nicht viel verloren. Wenn man bei allen die große fluktuierende Kraft, die elektrostatische Wirkung, wenn man die falsch vorhersagt, kriegt man die ganze Fluktuation mit in die Vorhersage. Ich weiß nicht, ob es so ganz klar geworden ist. Es kommt nicht auf die Hauptkomponente eines Effekts an sondern auf die Größe, die am meisten fluktuiert! Fehler sind zulässig, solange man immer vergleichen will. Und deshalb brauchen wir die ab initio Rechnungen gerade bei Kristallvorhersagen für exakte Berechnungen von eingesetzten Atomladungen, also mehr bei einfachen Modellen.

A: Durch das Internet erfuhr ich, daß Sie sogar eine eigene ab initio Methode entwickelt haben.

K: Für die Vorhersage von Kristallen. Man darf es nicht verwechseln mit quantenmechanischer ab initio. Das ist eines der großen Erfolge. Leider kostet dieses allein - - ja, man muß da vielleicht die story da erzählen. Es war 'mal ein Projekt bei der Ciba, es ging um die nichtlineare Optik. Da durfte ich, da hatte ich das große Glück, ein team leiten zu können, das diese Problematik behandeln sollte. Also es ging da um das Design von neuen Substanzen, es ging um nichtlineare Optik. Das ist ein Milliarden Markt, weil es darum geht, den blauen Laser zu produzieren. Naja, und das Hauptproblem war da, eine Vorhersage zu machen, ob ein Molekül, daß als Molekül günstig ist.. Leider Gottes ist es so, in dem Moment, wo ein Molekül in einer zentrosymmetrischen Modifikation kristallisiert, wird der Effekt annulliert. Es kommt null raus. Also das heißt, man muß vorhersagen können, ob ein Molekül auch in der Lage ist, nicht-zentrosymmetrische Modifikationen hervorzubringen. Und damit stießen wir damals zum ersten Mal auf diese Packungsproblematik und haben auch erkannt, daß das eigentlich das Grundproblem ist - nicht die Bändertheorien, die die ganze Sache irgendwie klären, sondern ein Methode die erlaubt, erstmals zu designen. Und das war ein voller Erfolg, die Methode hat erstaunlicherweise funktioniert - das war ein unlösbares Problem - aber es war doch relativ einfach lösbar wenn man da sauber gerechnet hat. Und dann starb das Projekt bei der Ciba. Und wir saßen da mit diesem Riesenprogramm. Wir haben uns mit der Ciba auseinanderdividiert ja, und die Frage war, was macht man mit diesem Programm? Und da hab' ich damals einen Postdoc - der wurde auch eingestellt, bei MSI eine der größten Softwarefirmen für Chemiesoftware. Und die waren bereit, es zu kaufen. Was quasi die einzige Gegenleistung von denen war, daß ich die Programmodule jetzt von denen zurück bekomme. Gut, das sind immerhin 300 000 Dollar, soviel ist dies Programm wert. Und allein für dieses Modul muß man 70 000 Dollar hinlegen. Und es wird nicht an Hochschulen verkauft. Die Überlegung von dieser Firma ist, bei solchen Programmen - das hab ich selber erlebt - ist es oft so - - für ein Labor ist dies Programm zu teuer. Was macht man? Man unterstützt irgendeinen Postdoc an der Uni, oder einen Doktorand an der Uni, und die Unis kriegen ja die Programme mit 90% Ermäßigung. Aus diesem Grund wurde dieses Programm nicht an Hochschulen verkauft, um die Industrie zu zwingen, das zu kaufen.

A: Was sind denn so die Preis in der Industrie?

K: Sehr teuer. Ich koste pro Tag zum Beispiel 1900 Franken.

A: Eine Probe, die bei Bayer intern an ein analytisches Labor geht, wird auch mit um die 1000 Mark abgerechnet.

K: Aber jetzt muß man folgendes berücksichtigen. Die Probleme sind so kompliziert. Wir arbeiten mit vollautomatischen Verfahren, die ganzen Modellings, die es so gibt, sind sehr schnell. Aber die Menge an Material und die Fülle an Alternativen ist oft so groß, daß ich zwei, oder zwei bis drei, Wochen brauche. Da kam man sich ausrechnen - -. Ich habe jetzt gerade ein Projekt gehabt, da ging es um einfache Radikalreaktionen. Da mußte der halt 20 000 Mark hinlegen.

A: Wenn das Problem aber aus der Produktion kommt?

K: OK, aber das ist nicht so ganz einzusehen. Es ist so schwer die Theorie, den Vorteil durch die Quantentheorie, zu messen. Es kann sein, daß ich irgendeine positive Aussage mache oder ein Ergebnis bekomme, daß jetzt die Forschungsrichtung beeinflußt. Aber wie will man es bei einem Endprodukt, das in drei Jahren entsteht, beurteilen? Ja, die Modeller haben auch was beigetragen, aber das ist nicht meßbar. Es ist sehr schwer meßbar. Und so - - . Die Labors, die haben in der Industrie sehr viel Geld, aber es wird nach dem Gießkannenprinzip verteilt. Jedes Labor hat ein beschränktes Budget. Ich steh' vor diesem Riesendilemma: wie kann ich billiger anbieten. Und mir ist ganz bewußt, ich muß die Hochschule schlagen; ich muß die billigste Lösung finden! Das schaff ich auch! Die brauchen eben vier, fünf mal so lange um ein Problem durchzuführen, um es zu knacken. Also zum Beispiel: eine Serie von Sattelpunktberechnungen, eine dreidimensionale Berechnung, also es ging da um eine Radikalreaktion, ob die geht, oder ob es sequentiell geht. Typische Frage. Also es ist ein sehr, sehr hartes Dasein in der Industrie. Vor allem immer, wie gesagt, die Kooperation zwischen der Industrie und den Hochschulen wird ja sehr gefördert heutzutage, in Amerika ist es Standard. Man hat natürlich den Vorteil bei vertraulichen Arbeiten, da zögert man mit Hochschulen. Aber bei so Fragestellungen ganz allgemeinen Natur ist die Hochschule eine echte, harte Konkurrenz für die rechnerischen Chemiker, für die Modeller, in der Industrie.

A: Ich stehe auch im Arbeitsleben, und bei uns gibt es ähnliche Probleme.

K: Sie arbeiten immer noch? Sie haben am Telefon gesagt - -

A: Ja, das ist richtig. Ich habe aber nicht mehr lange bis zur Penasionierung.

A: Was halten Sie von Clark, der mit dem Buch Computational Chemistry?

K: Genau der, der Tim Clark, ein hervorragender Mann, der hat auch eigene Version von Semiempirie, auch ein Konkurrenzprodukt zum Stewart. Den Clark, den hätte ich fast vergessen zu erwähnen. Der hat sein Programm auch komerzialisiert.

A: McWeeny veröffentlichte im International Journal of Quantum Chemistry seine Scientific Reminiscences, wo er sinngemäß sagt, daß er leider zu dumm war um eine Firma aufzumachen - mit Anspielung auf Pople.

K: Das stimmt nicht so ganz. Zwischen einem Programm und einem Produkt sind natürlich Welten. Und man muß sagen, das, was die Dewar Schüler hervorgebracht haben, war ein Produkt. Das man auch generell schnell einsetzen kann. MOPAC oder - ich weiß nicht wie das Thiel'sche Programm sich nennt - - MOPAC und GAUSSIAN, das sind die meist verwendetsten Programme. Und dann gibt noch ein Programm vom Hehre, der hat auch so eine Firma inzwischen, aber man verwendet trotzdem das GAUSSIAN, das ist weiter gefragt. Aber wie gesagt, ein Programm zu schreiben, das keine Anwendung hat, da gibt's Beispiele, gerade im density functional Bereich - bis da was Vernünftiges rauskam, die sind so furchtbar anzuwenden, das kann kein Mensch. Genauso das GOMBAS-Programm, das ist Molekülmechanik, aber es ist so furchtbar anzuwenden, das kann keiner in der Industrie machen, da ist nicht die Zeit dafür. Allein das Erlernen und die Angabe, das ist unmöglich; der effiziente Eingabeteil fehlt. Das ist wie bei Microsoft: Texteditoren gab's haufenweise, Betriebssysteme gab's haufenweise - der Durchbruch kam durch die Microsoftprodukte. Jeder konnte sie einsetzen, jeder konnte 'ran. Heute kann jeder Chemiker eigentlich im Prinzip mit MOPAC und GAUSSIAN umgehen, die sind so einfach in der Handhabung, viele Chemiker verwenden dies Programm, Laborchemiker.

A: Ich verwende, vielleicht etwas naiv, gelegentlich das HYPERCHEM-Programm - -

K: HYPERCHEM ist auch ein schönes Programm. Meines Erachtens haben die den Fehler gemacht, daß sie halt alles umgeschrieben haben. Die verwenden, glaube ich, AMPAC als Grundlage. Das heißt, bei jeder Verbesserung des Originalprogramms müssen die nachziehen, das ist kommerziell nicht sinnvoll. Viel sinnvoller haben's zum Beispiel die MSI gemacht. Die haben ein Steckmodul, da wird immer die neueste Version d'rangesteckt.

A: Mit vorher definierten Schnittstellen.

K: Ja - und die haben den Ehrgeiz gehabt, alles in C umzuschreiben, weil das noch alles in FORTRAN war. Das bringt überhaupt keinen Vorteil in C, was Algorithmen und Darstellung betrifft. Nur Nachteile, und ich glaube nicht, daß HYPERCHEM ständig, und wenn, dann unter großen Kosten verbunden, das ständig nachzuführen. Aber HYPERCHEM hat eine der besten Dokumentationen, die ich je gesehen habe, es ist phantastisch, das ist professionell.

A: Jetzt darf ich noch mal kurz nach Ihrem Hintergrund fragen - wann und wo haben Sie studiert?

K: Ich kam von Israel, geboren 1938. Ich hab' in Israel drei Jahre Chemie und Biochemie gemacht und hab' dann - - da war der Krieg noch, den mußt' ich auch noch mitmachen, das war der 6-Tage Krieg. Und dann hab' ich ein DAAD-Stipendium (Deutscher Akademischer Austauschdienst I.'s n.) bekommen. Ein recht großzügiges Stipendium nach Tübingen, um Biochemie zu studieren. Da hab ich Biochemie und Mathematik gemacht. Und hab damals beim Seelig, der kam damals ganz frisch nach Tübingen, Quantenchemie gemacht.

A: Wo kam Seelig her?

K: Der kam aus Marburg, von Kuhn. Und bei dem war ich der erste Diplomand. Und das hat mich begeistert. Das war 1971, 1973. Das war auch die Zeit, wo man wahnsinnig viel Hoffnung - - . Das waren die ersten Großrechner, die da installiert wurden, da konnte man rechnen, zum ersten mal richtig! Das war phantastisch, aber man hat kleine Brötchen gebacken, ganz einfache Moleküle. Naja, und beim Seelig hab ich dann diplomiert, promoviert, habilitiert. Irgendwann gibt's auch an der Uni - - . Und dann hab' ich damals, das war 1986, ein gutes Angebot von der Ciba bekommen. Da war ein Modeller gesucht, der die Modelling-Gruppe übernimmt und da hab ich auch eine recht große Modelling-Gruppe erst 'mal gehabt. Aber dann wurde da ständig umorganisiert bei der Ciba.

A: Sie sind mitgewachsen und haben ihre Stellung verteidigt - -

K: Gut, kann man sagen, aber allmählich werde ich ziemlich geduldet mit dem Zeugs was ich da mache. Da verdienen die kein Geld. Ich muß ringen, um meine Existenzberechtigung unter Beweis zu stellen. Das wird gemessen einzig und allein in Fränkli. Wieviele Fränkli mache ich pro Monat, pro Quartal. Und das ist oft ziemlich frustrierend. Aber wie gesagt, zwischendurch war mal eine phantastische Zeit, wo wirklich so eine Aufbruchstimmung bei der Ciba war.

A: Was haben Sie in Ihrer Diplomarbeit gemacht, wenn ich mal unterbrechen darf?

K: In der Diplomarbeit hab' ich über Systemtheorie gearbeitet. Es ging um die Kinetik - wir haben es damals 'Systemtheorie' genannt. Das hab ich dann nachher auch in der Promotion gemacht. Aber ich war ständig involviert in der Lehre, ich mußte Quantenchemie geben - das Grundhandwerk war Quantenchemie.

A: Es war ein wunderschönes Buch was der Seelig da hatte, haben Sie daran teilgenommen?

K: Ja, ich war eigentlich der Drucker dieses Buchs. So fing ich beim Seelig an, am Anfang war das Buch als Manuskript rausgebracht worden. Und das hab' ich 1971, als ich noch Diplomand war, das hab' ich erstmal getippt - und damals mußte man es noch auf so Folien bringen. Und dann haben es wir es dann das nächste mal - -

A: Mit Methanol?

K: Nee, nee, das war ein richtiger Druck. Und dann, das war lange Jahre als Druck, da war ich schon habilitiert in der Theoretischen Chemie. Und die hatten dann eine schwarze Kasse, da wurden die Manuskripte zum Selbstkostenpreis an Studenten verkauft. Bis der Rechnungshof dahinterkam. Der Verkauf wurde also sofort eingestellt. Wir hatten Berge von Manuskripten, aber die konnte man nur noch verschenken. Ja, und da hat er einfach das Manuskript an den Thieme Verlag gegeben. Und die haben es dann rausgebracht. Die schönen Bilder wurden zum großen Teil mit meinem Programm gemacht. Kleine Auflage. Aber das war noch Aufbruchstimmung und eine Begeisterung für die Theorie damals war - - . Die Dewar Schule damals - da kamen die ersten Versionen von CNDO raus. Zum ersten Mal etwas, was über Hückel raus ging! Wo man auch was machen konnte! Mit Hückel konnte man erklären aber nicht designen, oder wenig designen.

A: Wie war es da mit PPP, in Richtung Seelig? Wurde da etwas gemacht? Oder war PPP nur eine schnelle Zwischenphase.

K: PPP wird heute noch eingesetzt. Ich meine es ist ganz gut parametriesiert und für starre, planare aromatische Systeme funktioniert die p -s -Separation recht gut. Aber ich kenne wenige, die es einsetzen. Man hat es speziell für Spektrumidentifikation eingesetzt und da wird es noch heute eingesetzt, gerade für angeregte Zustände. PPP kann Geometrie schlecht optimieren. Es gibt da zwar Mischmethoden, PPP mit Molekülmechanik vermischt. Aber- - es ist immer so mit diesen Methoden, die einen Teilaspekt bringen, die sterben automatisch, wenn eine allgemeinere Methode auf den Markt kommt, die sie beinhaltet, zum Beispiel diese ganzen semiempirischen Verfahren, CINDO, INDO, MINDO, MNDO, AM3, PM3 etc. Es gibt kein PPP, jeder hat sein eigenes. Aber ich weiß noch, damals mußte ich zum ersten Mal die Studenten, die quantenchemische Praktika machen, und die SCF-Verfahren, das war die Pariser, Parr, Pople-Methode, weil es so einfach war, verstehen Sie? Weil es so schnell ging.

A: Zu diesen alten Programmen wie PPP, da fällt mir eine Frage ein: Ich habe immer den Verdacht, daß die alten Herren ihre alten Programme von damals nicht rausrücken wollen?!

K: Die gibt's nicht mehr! Ich hab damals - das war doch immer das Problem: ich hatte die Lochkarten, da mußte man Lochkarten programmieren, ich hatte Schränke voll davon, Riesenberge. Das war alles immer ein batch, ein Riesenhaufen, es war immer ziemlich teuer, die Ausdrucke zu machen. Wegen jedem kleinen bug mußte man - - . Die Zeiten haben sich ja kolossal geändert, daß kann man sich kaum noch vorstellen. Das war - - wie gesagt, in den 70-er Jahren bekamen die Unis eine CDC, einen Großrechner, zum ersten Mal konnte man da Änderungen machen, programmieren.

A: Gab es da schon Workstations?

K: Ne, Lochkarten. Die erste Generation hat noch mit Lochstreifen gearbeitet, da konnte man nichts lesen. Ich bin die zweite Generation. Die erste hat noch mit Lochstreifen gearbeitet, die konnte man nicht lesen. Als ich dann in den 70-er Jahren eingestiegen bin, da gab's schon die Lochkarten, da konnte man wenigstens das Eingetippte lesen. Und dann, erst viel später, Ende der Doktorarbeit, kamen dann die Terminals. Es war schon ein Riesenfortschritt. Und die Drucker waren entsprechend und teuer. Einen kleinen Fehler konnte man gleich ändern, wo man früher ein Kilo Papier brauchte. Mitte der 70-er kamen die Telefunken TR-4. Dann kamen später die ganzen CDCs und Convex, die ganzen Superrechner. Und erst als ich bei der Ciba anfing kam die Workstation

A: Welchen Rechner haben Sie jetzt?

K: Wir haben alles. Bei der rechnerischen Chemie Siliconix. Die Stärke ist die Grafik - -

A: Herr Professor Karfunkel ich darf mich für dieses Interview, daß wie kein anderes bisher die anwendungsbetonte Seite der Quantenchemie zeigt, ganz herzlich bedanken.




spectral line


Home                               Index                               Up




http://www.quantum-chemistry-history.com
Copyright © Oct. 28, 2001 by U. Anders, PhD.
e-mail Udo Anders : udo39@t-online.de

28.10.01 - 17:20:58