Informatik und Geisteswissenschaften --- Erkenntnismöglichkeiten im
Spannungsfeld von Analyse und Synthese.
Entwurf eines Programmes für eine mögliche "Musikinformatik"
, Mai 2005
1
Vorbemerkung
2
Eine grobe Landkarte der "Informatik" als solcher
2.1
Theoretische vs. Angewandte Informatik
2.2
Interaktionen
3
Digitale Modellierung und Ästhetische Produktion
3.1
Bereiche der Musik-Informatik
3.2
Ein Minimales Meta-Meta-Modell Ästhetischer Produktion.
3.3
Anwendung in Analyse und Synthese
3.3.1
EXKURS: Programmierung als Forschung: Text-Meta-Modelle im D2D Projekt
3.4
Die "Sondenfunktion" als zentrales Paradigma der Musikinformatik
3.4.1
Front-End Entwicklung
3.4.2
Punktuelle Modifikationen
4
Ein Hauptproblem der Didaktik
5
Der Lösungsansatz des MMod -Projektes
6
Musikinformatik und Musikphilosophie
Bibliographie
Während manche Teilbereiche und Schwesterdisziplinen
der Informatik, wie "Bioinformatik", "technische
Informatik" und --- zuvörderst --- "Wirtschaftsinformatik"
als solche bereits durchaus etabliert sind,
mit eigenen "scientific communities", Literaturen und Verfahren,
und teils zur Errichtung spezieller Studiengänge, ja gar Fakultäten
geführt haben, stößt der Vortragende --- selbst in akademischen Kreisen ---
häufig auf überraschte Reaktionen, sobald er zugibt, sich schwerpunktmäßig mit
"so etwas wie" Musikinformatik zu beschäftigen.
Dies deutet nicht nur eine bis dato ungenügende wissenschaftliche
Fundierung dieser Disziplin an, sondern
durchaus auch ein gewisses Unbehagen, ---
selbst, ja --- gerade bei den kulturell durchaus gebildeten
Wissenschaftler-Kollegen,
--- vielleicht verursacht durch
den Wunsch, daß es doch Bereiche menschlichen Erlebens, z.B. im Felde der
Kunst und Kunstrezeption, geben möge, die dem Zugriff der Technisierung
entzogen bleiben sollten, --- als Gegengewicht zur umfassenden Rationalisierung
des Arbeitsalltages eine Oase des Unbestimmten, nicht näher Bestimmbaren
und auch keiner näheren Bestimmung Bedürftigen.
Solchem Unbehagen entgegenzutreten ist durchaus politische Aufgabe: Einerseits nämlich: wenn das Vordringen der digitalen Datenverarbeitungssysteme unsere tägliche Lebenswirklichkeit zunehmend ent-spontanisiert und praeformiert, muß dies als solches problematisiert und ggfls. kontrolliert und korrigiert werden, und darf nicht durch eine Sehnsucht nach "dem Ominösen im Reiche der freien Kunst" schlichtweg kompensiert werden.
Zum anderen dient die Musik-Informatik, richtig verstanden, keineswegs
einzig dazu, Broadway- und Studio-Musiker arbeitslos zu machen, und
künstlerische Produktion etwa zu "automatisieren".
Im Gegenteil, --- erkenntnisbringend ist die Anwendung formaler Methoden
auf ästhetische Gegenstände und Prozesse gerade dann, wenn sie
auf "Lücken"
in der Kongruenz zwischen digitalem Modell und analoger
Wirklichkeit hinweist, --- wenn sie
auf den "nicht formalisierbaren Rest", das re-ligio,
präziser verweist, als es ohne
den Versuch der Formalisierung möglich wäre.
Auf welcher Grundlage und in welchen Bahnen sich derartige Formalisierungsversuche
bewegen können, ist u.a. Gegenstand des folgenden.
Wird der Vortragende dann weiter gefragt, was genau denn Gegenstand und Methode dieser "Musikinformatik" seien, wird damit der zentrale Punkt derer Selbstdefinition aufgeworfen.
Um dieser Frage hier nachzugehen, sei zunächst eine (selbstverständlich stark vereinfachte) Landkarte der "Informatik" als solcher exponiert, um dann in diesem Rahmen die unterschiedlichen möglichen Bereiche von "Musikinformatik" durch Verortung zu definieren.
Jedwede wissenschaftliche Disziplin kann nur definiert werden in einem rekursiven
Zirkel von praktischer Ausübung und theoretischer Meta-Reflexion,
bestehend in der Analyse der von ihr angewandten Verfahren und Methoden.
Dementsprechend uneinheitlich, ja kontrovers können mögliche Begriffsbestimmungen
werden, --- je nach gewähltem Ausgangspunkt und gewählten Prioritäten.
Voraussetzung und Anlaß zur Entwicklung der "Informatik" als solcher ist selbstverständlich die zunehmende Anwendbarkeit und Anwendung der digitalen Rechnenmaschinen, --- neudeutsch "Computer" genannt, --- im letzten Drittel des vorigen Jahrhunderts.
Allerdings ist die Informatik keinesfalls das, was der häufig als
Übersetzung mißverstandene englischsprachige Term computer science
ausdrückt, und von welchem sich die französische und die deutsche Terminologie,
(und teilweise auch die englisch-sprachige Literatur mit dem
Wort "informatics") bewußt absetzen, ---
Informatik ist nicht eine "Wissenschaft vom Computer".
Diese ist als sogenannte "technische Informatik" vielmehr ein Unterbereich der
Elektrotechnik.
"Informatik" hingegen ist Systemwissenschaft, nicht Gerätewissenschaft, --- nach der prägnanten Unterscheidung in [unbehauen82] .
Zentrale Aufgabe der Informatik ist es, Modelle von verschiedensten
Aspekten menschlicher Wirklichkeit zu erstellen, die sowohl von
Menschen als auch von Maschinen "verstanden" werden können, um dadurch die
reine operationale "power" der maschinellen Verarbeitung für den Menschen
nutzbar zu machen.
1
Dies kann, wenn gewollt, angesehen werden als ein klassisches
"Umschlagen von Quantität in Qualität".
So z.B. in der mathematishen Musiktheorie das
Aufspüren von Symmetriegruppen harmonischer Strukturen
bei Noll/ Neske und, mehr noch, das innerer Metren bei
Fleischer (beides in [kitmumath04]).
Zum Zwecke der weiteren Darlegung müssen wir zunächst in einem kleinen Exkurs den Begriff des "Modelles" etwas genauer fassen:
Folgend der Nomenklatur der "Object Managemant Group" ("OMG") ergibt sich folgende Schichtung:
Beispiel:
Die Methoden zur Spezifikation, Konstruktion und Analyse
der Modelle, der Meta- und der Meta-Meta-Modelle entnimmt
die Informatik der Mathematik!
In diesem Sinne kann man sagen ...
Informatik ist angewandte Mathematik !
ja, man könnte sogar weiter gehen und zugespitzt behaupten ...
Informatik ist nichts anderes als angewandte diskrete Mathematik !
Die ältere Schwester der Informatik,
die Kybernetik, kristallisierte sich heraus
als Systemwissenschaft zum Verständnis und zur Gestaltung der damalig
aktuellen Analog-Rechner. Die elektronisch (oder gar mechanisch) realisierbaren
Steuer- und Regelkreise bilden sog. dynamische, d.h. zeit-behaftete Systeme,
die mathematisch formulierbar sind als
Kollektionen von Differentialgleichungen.
Unser "primär theoretisches" Wissen über diese mathematischen Gebilde
ermöglichte daraufhin die a priori korrekte
Konstruktion von Regel- und Steuerkreisen nach den Erfordernissen
ihrer Anwendung.
Im Gegensatz dazu ist die Informatik ein Teil der diskreten Mathematik. Nicht Differentialgleichungen, sondern Zahlentheorie, Automatentheorie, Kategorientheorie und endliche Moduln, Gruppen und Abbildungen sind (u.U.) geeignet zu beschreiben, was im digitalen Rechner vor sich geht.
Bei diesem Vergleich zeigt sich ein grundlegender Paradigmenwechsel,
dessen Wichtigkeit nicht stark genug betont werden kann:
Während auf der Ebene der numerischen Berechnungen das digitale Verfahren
weit hinter das analoge zurückfällt, erhält es andererseits
eine grundlegend neue Qualität von Mächtigkeit durch
die Tatsache, daß in ihm Funktionen höherer Ordnung das
Standardmaterial bilden, daß also Funktionsobjekte ihrerseits
zu Daten werden und somit zum Gegenstand der Berechnung,
--- daß also Morphismen die sog. "first class residents"
2
sind.
Als einfaches Beispiel seien Caudierung und Bebalkung genannt, die in einem
Notensatzprogramm natürlich als Regel und nicht (nur) auf der Ebene der
Einzelentscheidung behandelbar werden müssen.
Nur so ist eine Auswahl zwischen den folgenden Notations-Varianten
überhaupt möglich, die (1) effizient zu denotieren ist, und (2)
punktuelle Änderungen überlebt:
Die Konsequenzen diesen Paradigmenwechsels sind übrigens auch in der professionellen Programmierpraxis noch lange nicht vollständig umgesetzt, --- die "closures" in "java" und "c-sharp" sind ein erster Versuch, Funktionsobjekte als die grundlegenden Datenobjekte zu etablieren (wie es in "lisp" ja seit fünfzig Jahren bereits Standard ist), und die Programmiertechniken ("design patterns") entsprechend umzugestalten.
Die Informatik läßt sich, der Erfahrung des Vortragenden folgend, grob in drei durchaus verschiedene Arbeitsbereiche unterteilen:
Dem stehen gegenüber zwei weitere Bereiche von Teildisziplinen, welche sich mit dem praktischen Einsatz von Rechnersystemen in der Lebenswirklichkeit beschäftigen:
Die SWT betrachtet die Schnittstelle von der Informatik zum technischen Computersystem, die Systemanalyse die zur sozialen Wirklichkeit.
Die SWT analysiert oder definiert z.B. verschiedene Verfahren zur Erstellung von Programmen, --- also Formalismen zur Architekturdefinition für das "programming in the large" und verschiedene Entwurfsmuster und ihre Realisierung in unterschiedlichen Programmiersprachen für das "programming in the small", zwei Tätigkeitsbereiche, die durchaus unterschiedliche Herangehensweisen erfordern.
Die zentralen Forderungen der SWT an ein konkretes Programm-Produkt sind z.B. hinreichende Spezifiziertheit und hinreichender Abstraktionsgrad als Vorbedingung für Wiederverwendbarkeit, Dokumentierbarkeit und Wartbarkeit.
Diese Grundforderungen sind aber nichts anderes als die (um niemanden abzuschrecken) verkappte Forderung nach hinreichendem Klärungsgrad der angewandten mathematischen Methoden.
Die Systemanalyse hingegen wendet sich der Lebenswirklichkeit zu, --- genauer:
einem intra-psychischen oder sozialen-konventionellen Modell davon.
Um dieses für den Rechner bewältigbar
zu machen, muß dieses Modell in ein mathematisches
überführt werden (deshalb "System-Analyse").
Zu diesem Zwecke wurden in den letzten Jahrzehnten standardisierte Verfahren
des "requirement engineering" und des "Systementwurfes" entwickelt,
--- wie ER-Modelle, Modellbasierte Spezifikation, work-flow-Analysen,
Fusion-Methode, diverse UML-Instantiierungen etc., so daß
diese Analysevorgänge keine prinzipiellen Probleme mehr aufwerfen.
Die Unterteilung in diese drei Bereiche kann allerdings nur einer groben Orientierung dienen, --- in jeder konkreten Anwendung interagieren ihre Methoden auf das innigste.
Zum einen nämlich bedienen sich SWT und Systemanalyse (mehr oder weniger bewußt und mehr oder weniger kompetent) allemal der mathematischen Strukturen, welche von der theoretischen Informatik erforscht wurden oder momentan erforscht werden.
Z.B. ist wichtigste Tätigkeit der wissenschaftlichen
SWT derzeit nicht etwa die Disposition
konkreter Projekte und SW-Architekturen, sondern die Erforschung
der semantischen Mächtigkeiten von formalen und semi-formalen
Spezifikationsverfahren und deren automatischer Auswertbarkeit.
Deshalb muß statt von "angewandter Wissenschaft" genauer von einer
typischen "Anwendungswissenschaft" gesprochen werden, --- deren Verfahren
im Idealfall nicht weniger exakt und mathematisch fundiert sind
als die der rein theoretischen Basis-Disziplin.
Zum zweiten sind, --- und das ist ein Punkt, der den
interessierten Laien häufig tatsächlich überrascht, ---
die Erkenntnisse der theoretischen
Informatik harte, absolute Grenzen!
Beispielhaft mögen dafür die Stichworte "Berechenbarkeit", "Halteproblem",
"Komplexitätstheorie" stehen.
Die durch die theoretische Analyse mathematischer Strukturen erkannten Grenzen sind ebenso hart und unüberwindlich wie die Sätze der Thermodynamik, --- gegen sie anzurennen bringt blutige Nasen und kann furchtbar teuer werden! --- Eine Erkenntnis, die sich dankenswerterweise auch in der Industrie langsam beginnt durchzusetzen.
Prominentes Beispiel der letzten Zeit ist die Anwendung des Satzes "Objektorietierte Datenbanken skalieren nicht" im Rahmen des Polizei-Informations-Systems "INPOL: "Der erste Testlauf im April 2001 endete in einem Desaster: Das neue System brach schon nach wenigen Minuten zusammen." [hofmann01]. Die zusätzlichen Kosten verursacht durch die Mißachtung jenes durchaus semi-theoretischen Satzes schätzen eingeweihte Kreise auf bis zu 500 Mio Euro!
Unter anderen motiviert durch die Menge derartiger Vorkommnisse beschäftigen der Vortragende und seine Kollegen sich eben mit angewandter Grundlagenforschung, --- was die Grundhaltung beschreiben soll, einerseits klare und harte mathematische Erkenntnisse anzustreben, andererseits dirch deren Übersetzung in die Prgrammierpraxis deren Relevanz, durchaus in Mark und Pfennig, nachvollziehbar aufzuweisen.
Eine dritte Spur von Interaktionen besteht zwischen der Systemanalyse und der
eigentlichen Domain-Wissenschaft:
Der vom Rechner induzierte Zwang zu möglichst exakter Formulierung
des Meta-Modelles hat immer eine (allerdings mehr oder weniger starke)
Katalysatorwirkung, die zur weiteren Klärung der Begrifflichkeit
und Regelsysteme der Domain-Wissenschaft selbst beiträgt.
Im Falle der Musikinformatik ist diese Auswirkung u.E. von zentraler
Wichtigkeit.
Eine vierte Spur von Interaktionen ist leider nicht so unbedingt
positiv zu bewerten, sondern äußerst kritisch zu beurteilen,
da sie in vielen Wirklichkeitsbereichen ein ernste Gefahr für
die menschliche Freiheit --- was immer das sei --- darstellen kann:
Jedes Rechnersystem, welches in eine soziale Wirklichkeit eingebracht wird,
verhält sich nämlich keinesfalls neutral, sondern verändert seinerseits
diese Wirklichkeit, und das u.U. durchaus gravierend.
Schon die reine Modellierung als solche, die ja Grundlage des
konkreten Rechnersystems ist, kann niemals so flexibel sein wie die
spontane menschliche Reaktion, individuell auf jeden Einzelfall.
Noch weniger kann das deren technische Implementierung:
Solange ein Angestellter im Frisiersalon mit Kugelschreiber und
Quittungsblock arbeitet, könnte er auch den Hund des Eigentümers verkaufen.
Dies ist nicht mehr möglich, jedenfalls nicht mehr auf buchhalterisch
korrekte Weise,
wenn er nur noch aus einer Bildschirmmaske unter
vordefinierten Buchungssätzen auswählen kann.
Das "rechner-gestützte Handeln" der unteren Verwaltungsangestellten,
also der im Publikumsverkehr, kann unmerklich in ein
"rechner-bestimmtes" umschlagen, --- mit teilweise ernsthaften Folgen
für die Betroffenen, z.B. im sozialen Leistungsrecht.
Die durch den Rechner verursachte Prae-Formierung des Denkens (gleichsam
eine "Mechanisierung")
ist ein grundlegender Paradigmenwechsel in unserer Lebenswirklichkeit,
dessen Bedeutung nicht stark genug herausgestellt werden kann, ---
vielleicht gar vergleichbar mit der Einführung der doppelten Buchführung oder
der Erfindung der Dampfmaschine.
Während aber in den Bereichen von Handel und Verwaltung, einschl. Industriemanagement, die Auswirkungen dieses Umbruchs Gegenstand der eigenständigen Lehrstühle für "Technologiefolgenabschätzung" sind (welch schön deutsch Wort), spielen sich diese Konflikte im Falle der "computergestützten ästhetischen Forschung durch Synthese" innerhalb des mathematisch/technologischen Prozesses ab, und etablieren dort Rückkopplungsprozesse, die u.U. Erkenntnisse ermöglichen, die auch auf "ernsthaftere" Anwendungen fruchtbringend übertragbar sind.
Musikinformatik nun bewegt sich, ihrer Natur als Anwendungswissenschaft gemäß, in den Bereichen SWT und Systemanalyse, --- allerdings auf ihre ganz spezifische Art und Weise.
Soll Musikinformatik sich als eigenständige Disziplin etablieren, so muß sie sich
sowohl den musikalischen Schwester-disziplinen als auch denen aus
der Informatik als eigenständig, ebenbürtig und nützlich erweisen.
Sie muß den Bereichen der Musik-Reflexion
als auch dem Bereich der Kern-Informatik neue Anstöße, Aufgaben und
Lösungsmodelle präsentieren, die außerhalb ihrer nicht (oder wenigstens
"nicht so leicht") zu erzielen wären.
Wie ist dieses Ziel zu erreichen?
Die "Informatik" selbst ist eine sehr junge Disziplin,
und hat es deshalb bis dato weder zu einer Vereinheitlichung der
Methoden noch zu einem verbindlichen Kanon gebracht.
Um so weniger kann man das von der "Musikinformatik" verlangen.
Jedes Vorgehen ist somit --- wenigstens für die nächsten Jahrzehnte ---
grundlegend experimentell.
Möglichen Erkenntnisgewinne für alle drei beteiligten Seiten findet man im Bereich der anzuwendenden und zu erforschenden Modellierungstechniken.
Welche Gegenstände gilt es zu modellieren?
Zur Zeit können unter dem Begriff "Musikinformatik" durchaus heterogene
Tätigkeitsbereiche nur lose zusammengefaßt werden,
teilweise ohne daß diese einen stärkeren inneren Zusammenhang aufwiesen.
Davon sind die z.Zt. wohl relevantesten ...
Die Klangsynthese-Mechanismen sind, sowohl betr. ihrer Theorie,
als auch bezgl. der Implementierungstechniken, hinreichend erforscht.
Die interessanten ihrer Probleme fallen in das
Spezialgebiet der digitalen Numerik, --- sie sind
(als solche!) kaum geeignet, neue Erkenntnisse über dieses Gebiet hinaus
zu ermöglichen, weder für die Informatik noch
für die Ästhetik.
Hingegen sehen wir durchaus interessante Arbeitsgebiete für Informatik
und Doemain-Ästhetik auf den höheren Ebenen der Steuerungsfunktionen für
die Klanggenerierungsschichten, --- dazu später mehr im Zuzsammenhang
von Abschnitt 3.4 ("Die "Sondenfunktion" als zentrales Paradigma der Musikinformatik
").
Noch deutlich unergiebiger ist u.E. die Retrieval-Problematik. Diese wird derzeit von der Industrie massiv gefördert, --- Ziel ist es, daß der "Kunde" am Telefon ein Melodiefragment summt oder pfeift, auf daß der Computer ihm oder ihr dann die "richtige CD" verkauft.
So wurde z.B auf der diesjährigen ESCOM Konferenz eine Untersuchung von
Psychologen vorgestellt [Lesaffre03] , deren Ergebnis es war, daß, aufgefordert
eine Melodie zu reproduzieren, Männer über 40 lieber summen, Frauen unter
30 aber "di di di" oder (an zweiter Stelle) "du du du" wählen.
Eine für jenen automatisierten Verkaufskontext durchaus wichtige Erkenntnis.
Das zugrunde liegende inhaltliche Problem ist jedoch zutiefst uninteressant, --- es bewegt sich auf der rein technologisch determinierten Ebene von neuen Algorithmen für Pattern-Matching, ist damit vergleichbar dem von Fahrplan-Auskunfts-Systemen, --- wenn dies auch technologisch und theoretisch keine geringe Herausforderung ist, so jedenfalls ästhetisch.
Das damit verbundene Problem des Datenbankentwurfes ist schon deutlich interessanter: Zumal wenn es um textbasierteDatenobjekte geht, ist der Entwurfsprozeß u.U. durchaus ein Betrag zu einer präziseren Ontologie der domain-Disziplinen, also auch für das jeweilige Fachgebiet selbst, wertvoll und erkenntnisbringend. Dies wurde für einige Gebiete in unserem D2D Projekt exemplarisch durchgeführt (siehe unten, Abschnitt 3.3.1 ("EXKURS: Programmierung als Forschung: Text-Meta-Modelle im D2D Projekt "))
Im Bereich der mathematischen Musiktheorie stellt sich
das grundlegende Problem der adäquaten Modellierung nicht, ---
die anzuwendende mathematische Theorie determiniert das Meta-Modell
normalerweise bereits hinreichend exakt.
Hier ist allerdings der Entwurf einer allgemeinen, generischen und
offenen Infrastruktur eine sowohl technologische wie auch
mathematische Herausforderung.
Der Nutzen für die domain-Wissenschaft bestünde in einer
Kombinierbarkeit der Methoden und der Austauschbarkeit von
Zwischenresultaten unter den verschiedenen Forschern und Forschergruppen.
Diesere Nutzen kann allerdings noch viel deutlicher erwartet werden im Bereich der ästhetischen Synthese, z.B. der musikalischen oder multi-medialen Komposition, wo die stärksten Herausforderungen für die Forschung zu erwarten sind: Hier ist nämlich das Ausgangsmodell als rein psycho-internes gegeben, durch die Werkvorstellung des schaffenden Subjektes.
Sowohl die Technologie und Mathematik der Infrastruktur stellen Herausforderungen an die Informatik, als auch der F&E Prozeß selbst an die Erforschung ästhetischen Denkens als solchem.
Zum Zwecke der genaueren Untersuchung dieser zentralen
Konstellation bedienen wir uns
eines ((im folgenden kurz beschriebenen)) theoretischen Rahmenwerkes
(neudeutsch: "framework"), welches die Rolle eines Meta-Meta-Modelles erfüllen
soll.
Dieses wird im Denken des Vortragenden abgeleitet aus den Grundzügen des
"Transzendentalen Idealismus und Empirischen Realismus" der
Kant'schen Erkenntnistheorie,
--- könnte aber auch durchaus anders hergeleitet werden, z.B. aus
Systemtheoretischen oder Strukturalistischen Konzepten.
Es soll hier ja auch nicht der philosophischen Fundierung ästhetischen Schaffens
als solcher dienen, sondern als Hilfskonstruktion, welche eine Einordnung konkreter
Arbeitsvorgänge und ihrer Materialisationen ermöglicht.
Dieses Meta-Meta-Modell basiert auf folgenden zwei Annahmen:
Erfahrbar sind dem Menschen lediglich verschiedenste Modelledieses einen Dinges: In der Aktivität der Rezeption wird aus einem physikalischen Modell ein intra-psychisches, und die verschiedenen intra-psychischen Modelle werden durch aktive Setzung auf jenes eine, selbstidentische "Ding" bezogen.
So kann ich z.B. die Partitur der "Krönungsmesse" analytisch lesen, oder aus dem Klavierauszug spielen, oder im Chor mitsingen, oder einer Aufführung beiwohnen, oder daheim eine CD auflegen, etc.
Die physikalischen Modelle, die Rezeptionsmechanismen und die induzierten intra-psychischen Modelle sind zweifellos in all diesen Fällen von grundlegend unterschiedlicher Struktur, --- daß sie alle Modelle desselben "Dinges", desselben "Werkes" sind, ist lediglich eine Behauptung, welche (allerdings durch die Konvention gestützt) jedesmal bewußt konstituiert werden muß.
In diesem Rahmenwerk kann nun jedwede künstlerische Betätigung
aufgefaßt werden als Transformation eines Modelles in ein anderes,
--- die praktische "musizierende" Aufführung z.B. als die Transformation
eines Modelles in Notenschrift in ein Modell aus Klangereignissen,
vermittelt durch ein dazwischenliegendes Modell aus körperlichen Aktionen,
dessen nicht-(mehr-)Bewußtheit allerdings Voraussetzung erfolgreichen
Musizierens ist, und welches seinerseits durch ein psycho-internes Modell
von "Superzeichen" gesteuert wird.
So bedeutet zB. im Generalbaß die Ziffernkombination "2+ 4 6" für den
geübten Interpreten eine bestimmte Klasse von Griffen, die er
automatisch in jeder Tonart spontan richtig auf die Tasten bringt.
und erst in zweiter Linie (jedenfalls was die Aktivität seines Gerhirnes
während einer Aufführung angeht) eine Klasse von Klängen.
Jeder kreative Prozeß (zb der Kompositionsprozeß als solcher) kann in diesem Rahmenwerk als Transformationskette von Modellen dargestellt werden, welche sich von rein intra-psychischen sukzessive zu physikalischen Modellen bewegt.
Dieser Transformationsprozeß geht aus von einer Hintergrundgenannten initialen Setzung ästhetischer Aufgaben oder Prinzipien, und führt über die sich in der Mittelgrund -struktur abspielenden (sic!) Transformationsprozesse zu Vordergrund -strukturen, welche allemal physikalische Modelle sind.
Die Mittelgrund-Strukturen können gesehen werden als eine Kollektion von verschiedenen Bestimmungsschichten. Diese sind a priori unabhängig von einander, abgesehen davon, daß zum Zwecke ästhetischer Kohärenz sie aus möglichst nur einerinitialen Hintergrund-Setzung abgeleitet sein sollten.
Konstitutiv für jedes Kunstwerk sind nun die sich in den verschiedenen Bestimmungsschichten des Mittelgrunds ergebenden Konflikte, zu deren Auflösung jedesmal neue Setzungung, i.e. Entscheidungendes ästhetische handelnden Subjektes notwendig sind.
Ein einfaches Beispiel aus der "klassisch/romantischen" Satztechnik: Soll eine prozessuale Vermittlung zwischen zwei harmonischen Zuständen hergestellt werden, z.b. durch sequenzierende Wiederholung eines Motives, so treten dessen Intervallstruktur und die Tonmengen der End- und Zwischenzustände in einen konflikt, der die typischen "Verbiegungen" von Moriven in den klassischen Durchführungsabschnitten hervorbringen.
Die ästhetische Forschungstätigkeit des Vortragenden in den letzten Jahren zielte nicht zuletzt darauf ab, einen möglichen Katalog derartiger Entscheidungsmechanismen aufzustellen.
Musikalische Analyse kann nun in diesem Rahmenwerk begriffen werden als die Rekonstruktion eines möglichen Mittelgrundes von Ableitungsschichten für einen gegebenen Vordergrund und möglicherweise bekannten Hintergrund.
Im Falle der Analyse gegebener Werke Dritter ist dieses Vorgehen immer ein grundlegend spekulatives, --- die Ergebnisse können für sich allerhöchstens "subjektive Überzeugungskraft" oder strukturelle Einfachheit reklamieren. "Eindeutig wahr" werden derartige Erkenntnisse selten, --- oft aber durchaus "wirkmächtig", sind also selbst ästhetische Phänomene.
In Parenthese sei angemerkt, daß bestimmte Spielarten von Musiktheorie so rekursiv fundiert werden können, --- ein Verfahren, welches durchaus analog ist zu rekursiven Fundierungsstrategien in der Mathematik.
Anders bei der ästhetischen Synthese.
Hier besteht durchaus die Hoffnung, daß
der Einsatz des Digitalrechners in der ästhetischen Produktion
neue Erkenntnisse über den intra-psychischen
Ablauf ästhetischer Entscheidungen mit sich bringen kann.
Die zentrale Annahme, welche es ermöglichen soll, konkrete Entwicklung, --- also
Programmierung --- auf die Ebene der Forschung und des Erkenntnisgewinnes
zu heben, ist die, daß "der Rechner nichts verzeiht" und
jedes Computersystem von Hause aus "ignorant" ist.
Alle Bestandteile des intra-psychischen Kalküls müssen demzufolge
explizit und ex ovoin das datenverarbeitenden System eingebracht werden,
--- nicht hinreichend scharfe Definitionen, nicht hinreichend
mächtige Ausdrucksmittel werden vom Computersystem selbst aufgedeckt.
Somit erfüllt die maschinelle Verarbeitung die Funktion einer Sonde, welche die physikalisch/mathematisch realisierten Meta-Modelle und Kalküle (mehr oder weniger exakt) als Abbild des intra-psychischen Meta-Modelles bestätigt oder kritisiert.
Synthese wirkt somit (1) als Prüfstein für jede Material-Analyse und -Disposition im konkreten Einzelfall, so diese ein Meta-Modell behaupten, --- aber auch (2) als Anregung zu weitergehender Erforschung der Begrifflichkeiten im domain-Bereich und (3) auch als Impuls zur Weiterentwicklung der technologischen Meta-Meta-Modelle, da diese ihre Grenzen nur durch ihre Anwendung deutlich offenbaren.
In diesem Sinne ist "Programmieren" tatsächlich Forschung, --- vorausgesetzt, daß Niveau der angewandten Programmiersprache ist hinreichend zeitgemäß, abstrakt und deklarativ.
Dies hat sich z.B. deutlich herausgestellt
bei unserem "D2D"-Projekt
([ltw01b][ltw02b]),
welches die Aufgabe hat, die
aktuelle XML-Technologie für das wissenschaftliche oder literarische
Schreiben zu öffnen: Aspekte von Ergonomie, ja gar von
Hand-Physiologie, von Linguistik und
bezg. der Anwendbarkeit des mathematischen Begriffes von "Sprache"
und von Parsierungstechniken mußten zusammengeführt werden, um ein in der
Praxis sich bewährendes Produkt zustande zu bringen.
So haben wir mittlerweile ein Meta-Meta-Modell, welches für die Aufgabe
wissenschaftlicher Dokumentation in den verschiedensten sog. "domains"
instantiierbar ist.
Diese Instantiierung besteht in der Erstellung des notwendigen Meta-Modelles.
Dies ist ein durchaus aufwendiger Prozeß, der aber
immer auch neue Fragen an, --- und somit Erkenntnisse
über --- die Struktur des Denkens der domain-Expertinnen
und -Experten selbst mit sich bringt.
Aufgrund dieser Erfahrungen läßt sich nun formulieren ein mögliches zentrales Programm für die weitere Entwicklung der Musikinformatik :
Musikinformatik muß (statt lediglich die Vordergrundphänomene), endlich auch den intra-psychisch konstituierten Mittelgrund mathematisch (also "physikalisch" / "anfassbar") repräsentieren.
Die Sonden-Funktion digitaltechnischer Implementierungen wird im Falle der ästhetischen Produktion und Analyse durch zwei Arten von Maßnahmen realisiert:
Zu 1)
In der avancierten Programmierpraxis wird der wenigste Programm-Text noch
"zu Fuß" programmiert.
Vielmehr ist es durchaus üblich, "in eine Programmiersprache hinein" zu
generieren. Programmiersprachen wie C++, Lisp oder Java werden
zunehmend als "back-ends" betrachtet, und der Programmtext aus einer
domain-spezifischen Spezifikations- oder Modellierungssprache, die
möglichst deklarativen Charakter haben soll, automatisch hergestellt.
Dies sollte u.E. völlig analog auf Klangsynthese und -verarbeitungs-Werkzeuge übertragen werden.
Am Anfang steht dabei allemal die Analyse des psycho-internen Modelles, der Grundvorstellung, soweit dieses dem Bewußtsein zugänglich ist: Was sind die grundlegenden Klangfamilien und deren Ableitungen, was sind die intendierten Prozesse und Übergänge, welche Art von Konstrast und Vermittelung scheinen dem oder der Komponierenden im Rahmen der Vorstellung von diesem konkreten Werk, --- oder auch im Allgemeinen, --- notwendig?
Der zweite Schritt ist dann der der Synthese : Welche Ausdrucksmittel
muß eine Sprache oder ein Kalkülhaben, um diese Elemente, ihre Anordnung und ihre
Beziehungen auszudrücken?
Analyse und Synthese können sowohl mit dem Entwurf
des "middle-end" beginnen, also der
rein mathematisch definierten Kollektion von Entitäten und Relationen, oder
aber auch am "front-end", also der konkreten Schreibweise, dem konkreten
Partiturformat, das als adäquat für das gegebene Projekt aufgestellt worden ist,
oder auch am "back-end", also mit den Strukturen der
konkret anzusteuernden Soft- und Hardware.
Hier nun setzt bereits ein erster Rückkopplungsprozess ein, welcher
im Spannungsfeld von Analyse und Synthese
möglicherweise in's Allgemeine übertragbare Erkenntnisse
mit sich bringt, indem gefragt wird:
Ist die Synthese des Meta-Modelles hinreichend feingranular, um die
in der Analyse gewonnenen Strukturmerkmale zu repräsentieren? ---
und umgekehrt: Ergeben sich aus dem Ausdrucksumfang der synthetisierten
Beschreibungssprache neue Aspekte oder feinere Differenzierungen,
welche in der Analysephase übersehen wurden?
In einem nächsten Schritt werden die rechner-internen Modell-Transformation implementiert, welche die "physikalische" Entsprechung der psycho-internen Ableitungsvorgänge (im Mittelgrund) sind, und in einem weiteren Schritt schließlich die Abbildungen auf ein klangerzeugendes back-end.
Spätestens hier werden Rückkopplungswirkungen unausweichlich: In den meisten Fällen wird die Mächtigkeit des front-ends nicht ausreichen, die klanglichen Resultate genau genug der inneren Vorstellung entsprechend zu spezifizieren, und in iterativen Zyklen müssen front-end und implementierte Transformationen dieser zunehmend angenähert werden.
Da rehcnerintern prinzipiell ersteinmal alles "ex ovo" konstruiert werden muß, müssen die vor-letzten Ableitungsschritte, die sonst die Konvention und das trainierte Unterbewußte des interpretierenden Instrumentalisten hinzufügt, allesamt explizit modelliert werden, -- z.B. durch regelbasierte Agogik. Welche front-end Beschreibungsmittel und welche Transformationsverfahren ermöglichen dies?
Damit aber nähern wir uns dem letztlichen Erkenntnisziel der Musikinformatik: Welche mathematische/quasi-physikalische Repräsentation entspricht tatsächlich den Ablaufmustern des kompositorischen Denkens ?
Wem eine derartig definierte Produktionskette als umständlicher Umweg erscheinen mag, der sei versichert, ...
Erstens: das Verfahren der Abstraktion ist das genuin-adäquate Verfahren
für den Einsatz von Digitalrechnern, --- nicht das Mäuschenklicken.
Zweckmäßige, der zu modellierenden Sache adäquate Abstraktion
führt in der Tat zu einem höheren Freiheitsgrad, da sie
die definitorischen Tätigkeiten des Benutzers auf
die tatsächlich von ihr oder ihm intendierten Ausdrucksformen
zu konzentrieren erlaubt.
Letztlich wird der Durchsatz höher, --- Umschlag von Quantität in
Qualität, --- von Menge in Entscheidungsfreiheit.
Zweitens hat die extensionale Darstellung am Ende der Transformationskette
vielleicht denselben Informationsgehalt wie eine "händisch" konstruierte Partitur
in Hinsicht auf das klangliche Resultat,
aber keinesfalls bezogen auf auf die intendierte Semantik, da die Abbildung von
der intensionalen middle-end Darstellung in eine extensionale back-end
Darstellung, also die Abbildung von Mg-Maßnahmen in Vg-Phänomene,
niemals injektiv sein kann.
Dies wird deutlich im Zusammenhang mit der zweiten Aufgabenstellung,
der Unterstützung und Protokollierung punktueller Modifikationen.
Man betrachte z.B. eine kompositorische Maßnahme, die, im Vordergrund, die folgende erste Zeile in die zweite transformiert:
Eben diese eine, einfache Veränderung kann Exprimierung einer unendlichen Menge von durchaus unterschiedlichen Maßnahmen im psycho-interenn Mittelgrund sein. Z.B. ...
Als ein zentrales Problem der Didaktik stellt sich
allerdings bald heraus, daß oben aufgestellte
zentrale Annahme, --- die der "ex ovo" Ignoranz des Rechners --- in dieser
apodiktischen Form leider nicht zutrifft.
Vielmehr kommt ja jeder Rechner und jede Programmiersprache einher
mit ihrem eigenen Verhalten, ihrer eigenen inneren Semantik.
Dieser sich zu bedienen macht ja gerade ihren Zweck aus.
Allerdings --- und dies vermag interessierte Laien jedesmal wieder
auf's höchste zu erstaunen ---
sind diese zu einem nicht geringen Teil uns schlichtweg unbekannt.
Es scheint schwer glaublich, daß
so kontrolliert erscheinende menschliche Artefakte
wie mathematisch genau definierte Kalküle Gegenstand unserer Unkenntnis
und noch der Erforschung bedürftig sein können?
Genau das aber ist, selbst bei den einfachsten Kalkülen, häufig der Fall.
Z.B. das berühmte "Lambda-Kalkül" von Church und Kleene
([lambda]):
Um so mehr gilt die "Notwendigkeit von tatsächlicher Forschung" bei unter-spezifizierten und un-überschaubaren Werkzeugen, wie z.B. Computerhardware und Programmiersprachen, mit denen doch allerorten scheinbar erfolgreich und problemlos umgegangen wird!
Informatiker meiner Generation hatten noch die Gelegenheit, jedes Bit einzeln durch die Drähte flitzen zu sehen, --- damals konnte man sogar an interrupt controller oder IO Register noch Drähte anlöten, um die Funktionalität eines Apple II e oder Commodore C 64 zu erweitern, --- und somit zu be-greifen.
Die heranwachsende Generation steht nun Systemen gegenüber, die nochmals um zwei bis drei Größenordnungen komplexer sind, und derartige Erfahrungen nun endgültig verunmöglichen, --- selbst die Mehrzahl unserer Informatik-Studierenden sind von Hause aus nur noch "user". Aber auch die "hacker" unter ihnen haben zunehmende Schwierigkeiten, hinter der Hochglanz-Oberfläche von mouseclicks und IDEs zum intellektuellen Kern des Programmierens vorzudringen.
Dieses Phänomen wird von Bildungsexperten aus der Forschung und
--- glücklicherweise --- inzwischen auch
aus der Wirtschaft als ein höchst gravierendes
und dabei äußerst politisches eingeschätzt.
Dankenswerterweise u.a. aufgewiesen von Fr. Renate Köche,
GF Allensbach auf einem
Symposium der AcaTech am
11. Mai 04 in Berlin, [acatech04].
Deshalb ist es von entscheidender Wichtigkeit, und es kann nicht stark genug betont werden, daß die Mechanismen des Rechners/der Programmiersprachen/der Kalküle selbst, also die Eigengesetze des anzuwendenden Werkzeuges, zunächst kritisch reflektiert und danach bewußt eingesetzt werden.
Die Welt der ästhetischen Konzepte und die Struktur der Werkzeuge sind zwei zunächst unrelierte Seinsbereiche mit eigenen Gesetzmäßigkeiten, welche durch ein Drittes, nämlich die angewandte Mathematik, bewußt verknüpft werden müssen.
Nur dadurch läßt sich der Digitalrechner zum Zwecke höherer Klarheit, zum Zwecke der Aufklärung und Selbst-Vergewisserung einsetzen. Andernfalls ergibt sich nämlich genau das Gegenteil: Zunehmende Verunklarung durch das In-einander-Wirken zweier unterschiedlicher und beide nicht genau verstandener Mechanismen.
In diesem Sinne kann die Didaktik der Informatik und der Musikinformatik durchaus einen Beitrag leisten zu einem bewußteren und wohlbegründbar kritischeren Umgang mit dem Digitalrechner auch in anderen Anwendungsbereichen.
In diesem Kontext nun muß sich auch die Definition der Rahmen eines jeden
Entwicklungsprojektes konkreter musik-informaitischer Werkzeuge positionieren.
Lassen Sie mich zum Abschluß kurz darstellen, wie die grundlegenden
Überlegungen und konkreten Konsequenzen bei den diesbezüglichen Aktivitäten
meines Kollegen Baltasar Trancón und meiner aussehnen.
Deren Arbeitstitel ist übrigens z.Zt. schlicht "mmod".
Jedes Meta-Modell präformiert die Menge der in ihm darstellbaren möglichen Modelle, und kommt i.A. daher mit einer Menge von Regeln, wie diese Modelle in Modelle anderer Meta-Modelle übersetzbar sind. Diese Regeln konstituieren in der Informatik die sogenannte "Semantik". Semantik im Sinne der Informatik ist also eine mathematische Transformation zwischen zwei Meta-Modellen, also immer nur relativ und dynamisch definiert, --- ein Beispiel für ein Denkmuster, das dank ihrer mathematischen Substanz in der Informatik am klarsten ausgeprägt erscheint, aber das auch durchaus auf beliebige andere Bereiche übertragen werden kann.
Wird nun ein digitales Werkzeug, also ein Ensemble von Hardware-Geräten und Software-Programmen, zum Zwecke dieser Modelltransformationen eingesetzt, so sind wir beim letzten zentralen kritischen Punkt der wissenschaftlichen Musikinformatik angelangt:
Jedes Werkzeug nämlich, und sei es nur eine Codierung, kommt daher mit seinem eigenen Meta-Modell. Dieses präformiert, wie erwähnt, die Menge der möglichen, darstellbaren Modelle, und zwar teilweise erheblich.
Der sog. "künstlerischen Freiheit" der Inspiration und der
(jedenfalls theoretischen) nicht-prae-Determiniertheit der
ästhetischen Entscheidungen kann eine Digitaltechnische
Unterstützung also keinesfalls entsprechen,
die ein bestimmtes Meta-Modell realisiert,
und sei dieses noch so flexibel.
Vielmehr muß sie ein Meta-Meta-Modell realisieren, welches
es erlaubt, das dem konkreten künstlerischen Vorhaben adäquate Meta-Modell
auf einfache Weise zu konstruieren.
In dieser Hinsicht steht künstlerisch anspruchsvolle Synthese und
wissenschaftlich orientierte Forschung im diametralen Gegensatz zu
kommerziell erhältlichen Werkzeugen, deren Sinn es ist, ein bestimmtes,
vordefiniertes Meta-Modell auf komfortabelste Weise zu realisieren.
Aufgabe der wissenschaftlichen F&E Arbeit, soweit sie
angewandte Grundlagenforschung ist, ist es,
professionelle Werkzeuge zu entwickeln, die dann
ggfls. von industriellen Partnern
mit Hochglanz-Oberflächen und -Handbüchern ausgestattet werden.
Nette GUIs erstellen kann auch ein Programmierer, --- ihre Optik
und Handhabung zu entwerfen, dafür bedarf es PsychologInnen und DesignerInnen.
Jedoch eine mathematisch wohlfundierte Sprache zu entwickeln, die eine
hinreichende Spezifikation solcher GUIs ermöglichen, ist fast nur in der
akademischen Forschung möglich.
Die in diesen kommerziellen Werkzeugen erreichte Komfortabilität kann
selbstverständlich im Rahmen der akademischen Angewandten Grundlagenforschung und
Systementwicklung niemals erreicht werden.
Allerdings ändert sich die Gesamtsituation zunehmend zu unseren Gunsten
("time is on our side"):
Die auch von kommerziellen Anwendern geforderte Interoperabilität
(Stichwort: standardisierte, XML-basierte Austauschformate) erlaubt es,
kommerzielle Werkzeuge als front-end oder back-end einzusetzen, ohne
auf die von diesen vorgeschriebenen Meta-Modelle eingeschränkt zu sein.
Deshalb können wir es uns heutzutage leisten, MMod als Meta-Meta-Modell zu implementieren, und dennoch in absehbarer Zeit die konkrete Anwendbarkeit zu erreichen, --- ein Ansatz, der in ca. 10 Jahren auch die Industrie erreicht haben wird.
Dabei ist die Defintion der Meta-Meta-Ebene, also der Infrastruktur des Systems, durchaus deduktiv, ensteht als technische Umsetzung der Zusammenfassung der aller-abstrakten Ergebnisse unserer lebenslangen Forschung im Bereich Musik und ihrer Repräsentation.
Die Meta-Modelle hingegen werden darin dann induktiv definiert!
Jedes Teil-Projekt muß das Recht haben, seine eigene Datenwelt nach seinen
eigenen. je spezifischen Bedürfnissen aufzubauen.
Die Ebene darunter nur ermöglicht dann die (potentielle) Interoperabilität.
Mathematisch/technisches Mittel der Wahlt sind dabei nicht zuletzt "freie Adjunkte" und "Co-Algebraisch definierte Datenstrukturen". Forschung und Implementierung beosnders zu letzteren sind weltweit noch in den Anfängen, und so kann das MMod-Projekt auch zu einer allgemeineren Grundlagenforschung beitragen.
Abschließend sei angemerkt, daß die analytischen Methoden der Musikinformatik durchaus ernste Beiträge zu Musiktheorie und -philosophie leisten können:
Im einfachsten Falle einfach dadurch, daß die Begrifflichkeiten
der ästhetologischen Diskussion deutlich weniger mißverständlich
vereinbart werden können durch eine Abbildung in wohlerforschte
mathematische Strukturen.
Auch dies wiederumg ein Beispiel für die Konstitution von
Semantik durch Modelltransformation, diesmal auf der wissenschaftstheoretischen
Meta-Ebene.
Ehe nämlich Musikanalytiker und -analztikerinnen sich z.B. über die Berechtigtheit eines funktionalen Symbols für einen bestimmten Akkord in einem bestimmten Kontext streiten, sollte eigentlich zunächst geklärt sein, was dieses Symbol (zB. in bestimmten Meta-Modellen von Harmonik) tatsächlich gleichsam "materiell" bedeutet.
Dazu bieten sich die wohlerforschten Standardmethoden der Informatik geradezu an, enn Sprachen und symbolische Kalküle sowie deren Semantiken sind genuine Gegenstände der Informatik.
Die Frage nach dem Material von Musik ist aber nicht die Frage nach ihrer Substanz.
Die Substanz jeden Werkes lebt in den Tiefendimensionen des Mittelgrundes,
gebildet von historischer Entwicklung und eigener Erfahrung, in welchem
dieses Material transformiert wird.
Das Material kann als Meta-Modell (mit präformierenden Eigengesetzen)
aufgefaßt werden, --- die Substanz als Menge von Modell-Transformationen.
Auch hier erscheinen die Morphismen, nicht die Objekte, als
first-class residents.
Jedoch ist es unzweifelhaft, daß eine genaue Durchdringung und
hinreichend exakte Spezifikation zunächst
der jeweiligen Materialbegriffe Voraussetzung
für die Zeckmäßigkeit jeden Reflektierens ist, --- und es scheint
weitergehend möglich,
daß diese "technischen" Klärungsprozesse auch in den Bereich des Schaffens und
der Analyse hinein inhaltlich fruchtbar werden.
Der Vortragende jedenfalls hat die Hoffnung, daß durch mathematische
Modellierungen hindurch wir den inhaltlichen Geheimnissen
von denjenigen Strukturen näher kommen, welche sich den konventionellen
Erklärungsmustern verweigern, ---
seien es die Takte 16 bis 24 des ersten Satzes des späten
cis-moll-Quartettes,
sei es das Vorspiel zu Lohengrin,
sei es Sister Ray von Velvet Underground, --- sei es, was
und wie es wolle,
es folge nur seinen geheimen eigenen Regeln.
[kitmumath04]
Computer Aided Representation, Analysis and Conveyance of Music and Music-Theoretical Structures TU Berlin, Berlin, 2004 http://flp.cs.tu-berlin.de/publikationen/kit/r149.pdf |
[Lesaffre03]
User Behaviour in the Spontaneous Reproduction of Musical Pieces by Vocal Query in: [escom03] |
[escom03]
Abstracts of the 5th Triennial Conference of the European Society for the Cognitive Schiences of Music (ESCOM) Reinhard Kopiez, Andreas C. Lehmann, Irving Wolther, Christian Wolf(Hrsg.) Hanover University of Music and Drama, Hannover, 2003 |
[unbehauen82]
Regelungstechnik Vieweg, Braunschweig, Wiesbaden, 1982 |
[hofmann01]
Zweiter Anlauf zur computergestützten Verbrecherjagd Stern, Hamburg, 2001 http://www.stern.de/digital/computer/polizei-zweiter-anlauf-zur-computergestuetzten-verbrecherjagd-511171.html |
[ltw01b]
und und und Minimze Mark-Up ! - Natural Writing Should Guide the Design of Textual Modeling Frontends in: Conceptual Modeling -- ER2001, LNCS, Vol.2224, Springer, Berlin, Heidelberg, New York, 2001 http://markuslepper.eu/papers/er2001.pdf |
[ltw02b]
und und XML-based Acquisition of Fine-Granular Structured Data by Grammar Morphisms Berlin, 2002 http://markuslepper.eu/papers/er2002.pdf |
[lambda]
Das Lambda-Kalfül WORLD, 2002 http://de.wikipedia.org/wiki/Lambda-Kalk%C3%BCl |
[acatech04]
Symposion der Akademie der Technikwissenschaften (acatech) zum Thema "Innovationsfähigkeit in Deutschland" Berlin, Mai 2004 http://www.berlinonline.de/berliner-zeitung/archiv/.bin/dump.fcgi/2004/0512/wissenschaft/0052/index.html |
1
Einzige Ausnahme von dieser Dominanz des rein Quantitativen scheinen
Inferenzsysteme/Theorembeweiser zu sein.
2
Dieser leicht faschistoide Anglizismus ist tatsächlich
etablierter terminus technicus !
made
2014-01-10_16h52
by
lepper
on
heine
produced with
eu.bandm.metatools.d2d
and
XSLT