Informatik und Geisteswissenschaften --- Erkenntnismöglichkeiten im Spannungsfeld von Analyse und Synthese.
Entwurf eines Programmes für eine mögliche "Musikinformatik"
Markus Lepper, Mai 2005



1          Vorbemerkung
2          Eine grobe Landkarte der "Informatik" als solcher
2.1          Theoretische vs. Angewandte Informatik
2.2          Interaktionen
3          Digitale Modellierung und Ästhetische Produktion
3.1          Bereiche der Musik-Informatik
3.2          Ein Minimales Meta-Meta-Modell Ästhetischer Produktion.
3.3          Anwendung in Analyse und Synthese
3.3.1          EXKURS: Programmierung als Forschung: Text-Meta-Modelle im D2D Projekt
3.4          Die "Sondenfunktion" als zentrales Paradigma der Musikinformatik
3.4.1          Front-End Entwicklung
3.4.2          Punktuelle Modifikationen
4          Ein Hauptproblem der Didaktik
5          Der Lösungsansatz des MMod -Projektes
6          Musikinformatik und Musikphilosophie
         Bibliographie

^Inh 1 Vorbemerkung

Während manche Teilbereiche und Schwesterdisziplinen der Informatik, wie "Bioinformatik", "technische Informatik" und --- zuvörderst --- "Wirtschaftsinformatik" als solche bereits durchaus etabliert sind, mit eigenen "scientific communities", Literaturen und Verfahren, und teils zur Errichtung spezieller Studiengänge, ja gar Fakultäten geführt haben, stößt der Vortragende --- selbst in akademischen Kreisen --- häufig auf überraschte Reaktionen, sobald er zugibt, sich schwerpunktmäßig mit "so etwas wie" Musikinformatik zu beschäftigen.
Dies deutet nicht nur eine bis dato ungenügende wissenschaftliche Fundierung dieser Disziplin an, sondern durchaus auch ein gewisses Unbehagen, --- selbst, ja --- gerade bei den kulturell durchaus gebildeten Wissenschaftler-Kollegen, --- vielleicht verursacht durch den Wunsch, daß es doch Bereiche menschlichen Erlebens, z.B. im Felde der Kunst und Kunstrezeption, geben möge, die dem Zugriff der Technisierung entzogen bleiben sollten, --- als Gegengewicht zur umfassenden Rationalisierung des Arbeitsalltages eine Oase des Unbestimmten, nicht näher Bestimmbaren und auch keiner näheren Bestimmung Bedürftigen.

Solchem Unbehagen entgegenzutreten ist durchaus politische Aufgabe: Einerseits nämlich: wenn das Vordringen der digitalen Datenverarbeitungssysteme unsere tägliche Lebenswirklichkeit zunehmend ent-spontanisiert und praeformiert, muß dies als solches problematisiert und ggfls. kontrolliert und korrigiert werden, und darf nicht durch eine Sehnsucht nach "dem Ominösen im Reiche der freien Kunst" schlichtweg kompensiert werden.

Zum anderen dient die Musik-Informatik, richtig verstanden, keineswegs einzig dazu, Broadway- und Studio-Musiker arbeitslos zu machen, und künstlerische Produktion etwa zu "automatisieren".
Im Gegenteil, --- erkenntnisbringend ist die Anwendung formaler Methoden auf ästhetische Gegenstände und Prozesse gerade dann, wenn sie auf "Lücken" in der Kongruenz zwischen digitalem Modell und analoger Wirklichkeit hinweist, --- wenn sie auf den "nicht formalisierbaren Rest", das re-ligio, präziser verweist, als es ohne den Versuch der Formalisierung möglich wäre.
Auf welcher Grundlage und in welchen Bahnen sich derartige Formalisierungsversuche bewegen können, ist u.a. Gegenstand des folgenden.

Wird der Vortragende dann weiter gefragt, was genau denn Gegenstand und Methode dieser "Musikinformatik" seien, wird damit der zentrale Punkt derer Selbstdefinition aufgeworfen.

Um dieser Frage hier nachzugehen, sei zunächst eine (selbstverständlich stark vereinfachte) Landkarte der "Informatik" als solcher exponiert, um dann in diesem Rahmen die unterschiedlichen möglichen Bereiche von "Musikinformatik" durch Verortung zu definieren.

^Inh 2 Eine grobe Landkarte der "Informatik" als solcher

Jedwede wissenschaftliche Disziplin kann nur definiert werden in einem rekursiven Zirkel von praktischer Ausübung und theoretischer Meta-Reflexion, bestehend in der Analyse der von ihr angewandten Verfahren und Methoden.
Dementsprechend uneinheitlich, ja kontrovers können mögliche Begriffsbestimmungen werden, --- je nach gewähltem Ausgangspunkt und gewählten Prioritäten.

Voraussetzung und Anlaß zur Entwicklung der "Informatik" als solcher ist selbstverständlich die zunehmende Anwendbarkeit und Anwendung der digitalen Rechnenmaschinen, --- neudeutsch "Computer" genannt, --- im letzten Drittel des vorigen Jahrhunderts.

Allerdings ist die Informatik keinesfalls das, was der häufig als Übersetzung mißverstandene englischsprachige Term computer science ausdrückt, und von welchem sich die französische und die deutsche Terminologie, (und teilweise auch die englisch-sprachige Literatur mit dem Wort "informatics") bewußt absetzen, --- Informatik ist nicht eine "Wissenschaft vom Computer".
Diese ist als sogenannte "technische Informatik" vielmehr ein Unterbereich der Elektrotechnik.

"Informatik" hingegen ist Systemwissenschaft, nicht Gerätewissenschaft, --- nach der prägnanten Unterscheidung in [unbehauen82] .

Zentrale Aufgabe der Informatik ist es, Modelle von verschiedensten Aspekten menschlicher Wirklichkeit zu erstellen, die sowohl von Menschen als auch von Maschinen "verstanden" werden können, um dadurch die reine operationale "power" der maschinellen Verarbeitung für den Menschen nutzbar zu machen. 1
Dies kann, wenn gewollt, angesehen werden als ein klassisches "Umschlagen von Quantität in Qualität".
So z.B. in der mathematishen Musiktheorie das Aufspüren von Symmetriegruppen harmonischer Strukturen bei Noll/ Neske und, mehr noch, das innerer Metren bei Fleischer (beides in [kitmumath04]).

Zum Zwecke der weiteren Darlegung müssen wir zunächst in einem kleinen Exkurs den Begriff des "Modelles" etwas genauer fassen:

Folgend der Nomenklatur der "Object Managemant Group" ("OMG") ergibt sich folgende Schichtung:

  1. Ein Modell ist eine (strukturierte) Sammlung von Daten, die eine konkrete Wirklichkeitssitutation abbilden soll.
  2. Ein Meta-Modell ist die Beschreibung/Festlegung eben genau dieser Struktur, ist also die Beschreibung einer Modell-Klasse, einer ganzen Menge möglicher Modelle-
  3. Ein Meta-Meta-Modell ist dann ein Formalismus zur Definition genau solscher Modellklassen.

Beispiel:

  1. Eine Tabelle mit den (=Menge von Datensätzen), die Lehrveranstaltungen beschreibt (Titel, Raum, Uhrzeit, etc.) ist das Modell,
  2. die entsprechenden Spalten-Überschrifren (z.B: gegeben in "SQL") sind das Meta-Modell,
  3. und "SQL" selbst, oder das "Entity-Relationship-Modell", oder einfach die Konvention, wie eine Tabelle zu lesen ist (Spalten sind Typen, Zeilen sind Entitäten, etc.), sind das Meta-Meta-Modell.

Die Methoden zur Spezifikation, Konstruktion und Analyse der Modelle, der Meta- und der Meta-Meta-Modelle entnimmt die Informatik der Mathematik! In diesem Sinne kann man sagen ...
Informatik ist angewandte Mathematik !
ja, man könnte sogar weiter gehen und zugespitzt behaupten ...
Informatik ist nichts anderes als angewandte diskrete Mathematik !

Die ältere Schwester der Informatik, die Kybernetik, kristallisierte sich heraus als Systemwissenschaft zum Verständnis und zur Gestaltung der damalig aktuellen Analog-Rechner. Die elektronisch (oder gar mechanisch) realisierbaren Steuer- und Regelkreise bilden sog. dynamische, d.h. zeit-behaftete Systeme, die mathematisch formulierbar sind als Kollektionen von Differentialgleichungen.
Unser "primär theoretisches" Wissen über diese mathematischen Gebilde ermöglichte daraufhin die a priori korrekte Konstruktion von Regel- und Steuerkreisen nach den Erfordernissen ihrer Anwendung.

Im Gegensatz dazu ist die Informatik ein Teil der diskreten Mathematik. Nicht Differentialgleichungen, sondern Zahlentheorie, Automatentheorie, Kategorientheorie und endliche Moduln, Gruppen und Abbildungen sind (u.U.) geeignet zu beschreiben, was im digitalen Rechner vor sich geht.

Bei diesem Vergleich zeigt sich ein grundlegender Paradigmenwechsel, dessen Wichtigkeit nicht stark genug betont werden kann:
Während auf der Ebene der numerischen Berechnungen das digitale Verfahren weit hinter das analoge zurückfällt, erhält es andererseits eine grundlegend neue Qualität von Mächtigkeit durch die Tatsache, daß in ihm Funktionen höherer Ordnung das Standardmaterial bilden, daß also Funktionsobjekte ihrerseits zu Daten werden und somit zum Gegenstand der Berechnung, --- daß also Morphismen die sog. "first class residents" 2 sind.

Als einfaches Beispiel seien Caudierung und Bebalkung genannt, die in einem Notensatzprogramm natürlich als Regel und nicht (nur) auf der Ebene der Einzelentscheidung behandelbar werden müssen.
Nur so ist eine Auswahl zwischen den folgenden Notations-Varianten überhaupt möglich, die (1) effizient zu denotieren ist, und (2) punktuelle Änderungen überlebt:

Notenbeispiel für verschiedene Bebalkungen, die nur als Regeln spezifizierbar sind

Die Konsequenzen diesen Paradigmenwechsels sind übrigens auch in der professionellen Programmierpraxis noch lange nicht vollständig umgesetzt, --- die "closures" in "java" und "c-sharp" sind ein erster Versuch, Funktionsobjekte als die grundlegenden Datenobjekte zu etablieren (wie es in "lisp" ja seit fünfzig Jahren bereits Standard ist), und die Programmiertechniken ("design patterns") entsprechend umzugestalten.

^Inh 2.1 Theoretische vs. Angewandte Informatik

Die Informatik läßt sich, der Erfahrung des Vortragenden folgend, grob in drei durchaus verschiedene Arbeitsbereiche unterteilen:

  1. In dem ersten Bereich werden die Eigengesetzmäßigkeiten der mathematischen Kalküle untersucht, die zur Modellierung herangezogen werden.
    Dazu gehören die verschiedensten Unterarten der mathematischen Algebra, z.B. mathematische Logik, Graphentheorie mit Graphtransformationen und Graphgrammatiken, Automatentheorie mit hybriden, hierarchischen und zeitbehafteten Automaten, Parsierungsverfahren, semantische Modelle, etc.
    Diese Bereiche kann man (nur als Arbeitsbegriff!) unter der Bezeichnung "theoretische Informatik" zusammengefassen.

Dem stehen gegenüber zwei weitere Bereiche von Teildisziplinen, welche sich mit dem praktischen Einsatz von Rechnersystemen in der Lebenswirklichkeit beschäftigen:

  1. den zweiten Bereich, der mit dem Arbeitsbegriff "Software-Technik" (in folgenden "SWT") i.e.S. bezeichnet werden kann,
  2. und einen dritten Bereich, hier "Systemanalyse" genannt.

Die SWT betrachtet die Schnittstelle von der Informatik zum technischen Computersystem, die Systemanalyse die zur sozialen Wirklichkeit.

Die SWT analysiert oder definiert z.B. verschiedene Verfahren zur Erstellung von Programmen, --- also Formalismen zur Architekturdefinition für das "programming in the large" und verschiedene Entwurfsmuster und ihre Realisierung in unterschiedlichen Programmiersprachen für das "programming in the small", zwei Tätigkeitsbereiche, die durchaus unterschiedliche Herangehensweisen erfordern.

Die zentralen Forderungen der SWT an ein konkretes Programm-Produkt sind z.B. hinreichende Spezifiziertheit und hinreichender Abstraktionsgrad als Vorbedingung für Wiederverwendbarkeit, Dokumentierbarkeit und Wartbarkeit.

Diese Grundforderungen sind aber nichts anderes als die (um niemanden abzuschrecken) verkappte Forderung nach hinreichendem Klärungsgrad der angewandten mathematischen Methoden.

Die Systemanalyse hingegen wendet sich der Lebenswirklichkeit zu, --- genauer: einem intra-psychischen oder sozialen-konventionellen Modell davon.
Um dieses für den Rechner bewältigbar zu machen, muß dieses Modell in ein mathematisches überführt werden (deshalb "System-Analyse").
Zu diesem Zwecke wurden in den letzten Jahrzehnten standardisierte Verfahren des "requirement engineering" und des "Systementwurfes" entwickelt, --- wie ER-Modelle, Modellbasierte Spezifikation, work-flow-Analysen, Fusion-Methode, diverse UML-Instantiierungen etc., so daß diese Analysevorgänge keine prinzipiellen Probleme mehr aufwerfen.

^Inh 2.2 Interaktionen

Die Unterteilung in diese drei Bereiche kann allerdings nur einer groben Orientierung dienen, --- in jeder konkreten Anwendung interagieren ihre Methoden auf das innigste.

Zum einen nämlich bedienen sich SWT und Systemanalyse (mehr oder weniger bewußt und mehr oder weniger kompetent) allemal der mathematischen Strukturen, welche von der theoretischen Informatik erforscht wurden oder momentan erforscht werden.

Z.B. ist wichtigste Tätigkeit der wissenschaftlichen SWT derzeit nicht etwa die Disposition konkreter Projekte und SW-Architekturen, sondern die Erforschung der semantischen Mächtigkeiten von formalen und semi-formalen Spezifikationsverfahren und deren automatischer Auswertbarkeit.
Deshalb muß statt von "angewandter Wissenschaft" genauer von einer typischen "Anwendungswissenschaft" gesprochen werden, --- deren Verfahren im Idealfall nicht weniger exakt und mathematisch fundiert sind als die der rein theoretischen Basis-Disziplin.

Zum zweiten sind, --- und das ist ein Punkt, der den interessierten Laien häufig tatsächlich überrascht, --- die Erkenntnisse der theoretischen Informatik harte, absolute Grenzen!
Beispielhaft mögen dafür die Stichworte "Berechenbarkeit", "Halteproblem", "Komplexitätstheorie" stehen.

Die durch die theoretische Analyse mathematischer Strukturen erkannten Grenzen sind ebenso hart und unüberwindlich wie die Sätze der Thermodynamik, --- gegen sie anzurennen bringt blutige Nasen und kann furchtbar teuer werden! --- Eine Erkenntnis, die sich dankenswerterweise auch in der Industrie langsam beginnt durchzusetzen.

Prominentes Beispiel der letzten Zeit ist die Anwendung des Satzes "Objektorietierte Datenbanken skalieren nicht" im Rahmen des Polizei-Informations-Systems "INPOL: "Der erste Testlauf im April 2001 endete in einem Desaster: Das neue System brach schon nach wenigen Minuten zusammen." [hofmann01]. Die zusätzlichen Kosten verursacht durch die Mißachtung jenes durchaus semi-theoretischen Satzes schätzen eingeweihte Kreise auf bis zu 500 Mio Euro!

Unter anderen motiviert durch die Menge derartiger Vorkommnisse beschäftigen der Vortragende und seine Kollegen sich eben mit angewandter Grundlagenforschung, --- was die Grundhaltung beschreiben soll, einerseits klare und harte mathematische Erkenntnisse anzustreben, andererseits dirch deren Übersetzung in die Prgrammierpraxis deren Relevanz, durchaus in Mark und Pfennig, nachvollziehbar aufzuweisen.

Eine dritte Spur von Interaktionen besteht zwischen der Systemanalyse und der eigentlichen Domain-Wissenschaft: Der vom Rechner induzierte Zwang zu möglichst exakter Formulierung des Meta-Modelles hat immer eine (allerdings mehr oder weniger starke) Katalysatorwirkung, die zur weiteren Klärung der Begrifflichkeit und Regelsysteme der Domain-Wissenschaft selbst beiträgt.
Im Falle der Musikinformatik ist diese Auswirkung u.E. von zentraler Wichtigkeit.

Eine vierte Spur von Interaktionen ist leider nicht so unbedingt positiv zu bewerten, sondern äußerst kritisch zu beurteilen, da sie in vielen Wirklichkeitsbereichen ein ernste Gefahr für die menschliche Freiheit --- was immer das sei --- darstellen kann:
Jedes Rechnersystem, welches in eine soziale Wirklichkeit eingebracht wird, verhält sich nämlich keinesfalls neutral, sondern verändert seinerseits diese Wirklichkeit, und das u.U. durchaus gravierend.
Schon die reine Modellierung als solche, die ja Grundlage des konkreten Rechnersystems ist, kann niemals so flexibel sein wie die spontane menschliche Reaktion, individuell auf jeden Einzelfall. Noch weniger kann das deren technische Implementierung:
Solange ein Angestellter im Frisiersalon mit Kugelschreiber und Quittungsblock arbeitet, könnte er auch den Hund des Eigentümers verkaufen. Dies ist nicht mehr möglich, jedenfalls nicht mehr auf buchhalterisch korrekte Weise, wenn er nur noch aus einer Bildschirmmaske unter vordefinierten Buchungssätzen auswählen kann.

Das "rechner-gestützte Handeln" der unteren Verwaltungsangestellten, also der im Publikumsverkehr, kann unmerklich in ein "rechner-bestimmtes" umschlagen, --- mit teilweise ernsthaften Folgen für die Betroffenen, z.B. im sozialen Leistungsrecht.
Die durch den Rechner verursachte Prae-Formierung des Denkens (gleichsam eine "Mechanisierung") ist ein grundlegender Paradigmenwechsel in unserer Lebenswirklichkeit, dessen Bedeutung nicht stark genug herausgestellt werden kann, --- vielleicht gar vergleichbar mit der Einführung der doppelten Buchführung oder der Erfindung der Dampfmaschine.

Während aber in den Bereichen von Handel und Verwaltung, einschl. Industriemanagement, die Auswirkungen dieses Umbruchs Gegenstand der eigenständigen Lehrstühle für "Technologiefolgenabschätzung" sind (welch schön deutsch Wort), spielen sich diese Konflikte im Falle der "computergestützten ästhetischen Forschung durch Synthese" innerhalb des mathematisch/technologischen Prozesses ab, und etablieren dort Rückkopplungsprozesse, die u.U. Erkenntnisse ermöglichen, die auch auf "ernsthaftere" Anwendungen fruchtbringend übertragbar sind.

^Inh 3 Digitale Modellierung und Ästhetische Produktion

^Inh 3.1 Bereiche der Musik-Informatik

Musikinformatik nun bewegt sich, ihrer Natur als Anwendungswissenschaft gemäß, in den Bereichen SWT und Systemanalyse, --- allerdings auf ihre ganz spezifische Art und Weise.

Soll Musikinformatik sich als eigenständige Disziplin etablieren, so muß sie sich sowohl den musikalischen Schwester-disziplinen als auch denen aus der Informatik als eigenständig, ebenbürtig und nützlich erweisen.
Sie muß den Bereichen der Musik-Reflexion als auch dem Bereich der Kern-Informatik neue Anstöße, Aufgaben und Lösungsmodelle präsentieren, die außerhalb ihrer nicht (oder wenigstens "nicht so leicht") zu erzielen wären.
Wie ist dieses Ziel zu erreichen?

Die "Informatik" selbst ist eine sehr junge Disziplin, und hat es deshalb bis dato weder zu einer Vereinheitlichung der Methoden noch zu einem verbindlichen Kanon gebracht.
Um so weniger kann man das von der "Musikinformatik" verlangen.
Jedes Vorgehen ist somit --- wenigstens für die nächsten Jahrzehnte --- grundlegend experimentell.

Möglichen Erkenntnisgewinne für alle drei beteiligten Seiten findet man im Bereich der anzuwendenden und zu erforschenden Modellierungstechniken.

Welche Gegenstände gilt es zu modellieren?

Zur Zeit können unter dem Begriff "Musikinformatik" durchaus heterogene Tätigkeitsbereiche nur lose zusammengefaßt werden, teilweise ohne daß diese einen stärkeren inneren Zusammenhang aufwiesen.
Davon sind die z.Zt. wohl relevantesten ...

  1. Signalverarbeitung für Klangsynthese und Klangtransformation
  2. Datenbank-Verwaltung, speziell Retrieval
  3. Automatisierte Mathematische Musiktheorie
  4. Computergestützte Komposition und Analyse

Die Klangsynthese-Mechanismen sind, sowohl betr. ihrer Theorie, als auch bezgl. der Implementierungstechniken, hinreichend erforscht. Die interessanten ihrer Probleme fallen in das Spezialgebiet der digitalen Numerik, --- sie sind (als solche!) kaum geeignet, neue Erkenntnisse über dieses Gebiet hinaus zu ermöglichen, weder für die Informatik noch für die Ästhetik.
Hingegen sehen wir durchaus interessante Arbeitsgebiete für Informatik und Doemain-Ästhetik auf den höheren Ebenen der Steuerungsfunktionen für die Klanggenerierungsschichten, --- dazu später mehr im Zuzsammenhang von Abschnitt 3.4 ("Die "Sondenfunktion" als zentrales Paradigma der Musikinformatik ").

Noch deutlich unergiebiger ist u.E. die Retrieval-Problematik. Diese wird derzeit von der Industrie massiv gefördert, --- Ziel ist es, daß der "Kunde" am Telefon ein Melodiefragment summt oder pfeift, auf daß der Computer ihm oder ihr dann die "richtige CD" verkauft.

So wurde z.B auf der diesjährigen ESCOM Konferenz eine Untersuchung von Psychologen vorgestellt [Lesaffre03] , deren Ergebnis es war, daß, aufgefordert eine Melodie zu reproduzieren, Männer über 40 lieber summen, Frauen unter 30 aber "di di di" oder (an zweiter Stelle) "du du du" wählen.
Eine für jenen automatisierten Verkaufskontext durchaus wichtige Erkenntnis.

Das zugrunde liegende inhaltliche Problem ist jedoch zutiefst uninteressant, --- es bewegt sich auf der rein technologisch determinierten Ebene von neuen Algorithmen für Pattern-Matching, ist damit vergleichbar dem von Fahrplan-Auskunfts-Systemen, --- wenn dies auch technologisch und theoretisch keine geringe Herausforderung ist, so jedenfalls ästhetisch.

Das damit verbundene Problem des Datenbankentwurfes ist schon deutlich interessanter: Zumal wenn es um textbasierteDatenobjekte geht, ist der Entwurfsprozeß u.U. durchaus ein Betrag zu einer präziseren Ontologie der domain-Disziplinen, also auch für das jeweilige Fachgebiet selbst, wertvoll und erkenntnisbringend. Dies wurde für einige Gebiete in unserem D2D Projekt exemplarisch durchgeführt (siehe unten, Abschnitt 3.3.1 ("EXKURS: Programmierung als Forschung: Text-Meta-Modelle im D2D Projekt "))

Im Bereich der mathematischen Musiktheorie stellt sich das grundlegende Problem der adäquaten Modellierung nicht, --- die anzuwendende mathematische Theorie determiniert das Meta-Modell normalerweise bereits hinreichend exakt.
Hier ist allerdings der Entwurf einer allgemeinen, generischen und offenen Infrastruktur eine sowohl technologische wie auch mathematische Herausforderung.
Der Nutzen für die domain-Wissenschaft bestünde in einer Kombinierbarkeit der Methoden und der Austauschbarkeit von Zwischenresultaten unter den verschiedenen Forschern und Forschergruppen.

Diesere Nutzen kann allerdings noch viel deutlicher erwartet werden im Bereich der ästhetischen Synthese, z.B. der musikalischen oder multi-medialen Komposition, wo die stärksten Herausforderungen für die Forschung zu erwarten sind: Hier ist nämlich das Ausgangsmodell als rein psycho-internes gegeben, durch die Werkvorstellung des schaffenden Subjektes.

Sowohl die Technologie und Mathematik der Infrastruktur stellen Herausforderungen an die Informatik, als auch der F&E Prozeß selbst an die Erforschung ästhetischen Denkens als solchem.

^Inh 3.2 Ein Minimales Meta-Meta-Modell Ästhetischer Produktion.

Zum Zwecke der genaueren Untersuchung dieser zentralen Konstellation bedienen wir uns eines ((im folgenden kurz beschriebenen)) theoretischen Rahmenwerkes (neudeutsch: "framework"), welches die Rolle eines Meta-Meta-Modelles erfüllen soll.
Dieses wird im Denken des Vortragenden abgeleitet aus den Grundzügen des "Transzendentalen Idealismus und Empirischen Realismus" der Kant'schen Erkenntnistheorie, --- könnte aber auch durchaus anders hergeleitet werden, z.B. aus Systemtheoretischen oder Strukturalistischen Konzepten.
Es soll hier ja auch nicht der philosophischen Fundierung ästhetischen Schaffens als solcher dienen, sondern als Hilfskonstruktion, welche eine Einordnung konkreter Arbeitsvorgänge und ihrer Materialisationen ermöglicht.

Dieses Meta-Meta-Modell basiert auf folgenden zwei Annahmen:

  1. Einerseits sei jedes Werk ein sich selbst identisches Ding,
  2. welches aber andererseits als solches dem Menschen nicht erfahrbar ist.

Erfahrbar sind dem Menschen lediglich verschiedenste Modelledieses einen Dinges: In der Aktivität der Rezeption wird aus einem physikalischen Modell ein intra-psychisches, und die verschiedenen intra-psychischen Modelle werden durch aktive Setzung auf jenes eine, selbstidentische "Ding" bezogen.

So kann ich z.B. die Partitur der "Krönungsmesse" analytisch lesen, oder aus dem Klavierauszug spielen, oder im Chor mitsingen, oder einer Aufführung beiwohnen, oder daheim eine CD auflegen, etc.

Die physikalischen Modelle, die Rezeptionsmechanismen und die induzierten intra-psychischen Modelle sind zweifellos in all diesen Fällen von grundlegend unterschiedlicher Struktur, --- daß sie alle Modelle desselben "Dinges", desselben "Werkes" sind, ist lediglich eine Behauptung, welche (allerdings durch die Konvention gestützt) jedesmal bewußt konstituiert werden muß.

^Inh 3.3 Anwendung in Analyse und Synthese

In diesem Rahmenwerk kann nun jedwede künstlerische Betätigung aufgefaßt werden als Transformation eines Modelles in ein anderes, --- die praktische "musizierende" Aufführung z.B. als die Transformation eines Modelles in Notenschrift in ein Modell aus Klangereignissen, vermittelt durch ein dazwischenliegendes Modell aus körperlichen Aktionen, dessen nicht-(mehr-)Bewußtheit allerdings Voraussetzung erfolgreichen Musizierens ist, und welches seinerseits durch ein psycho-internes Modell von "Superzeichen" gesteuert wird.
So bedeutet zB. im Generalbaß die Ziffernkombination "2+ 4 6" für den geübten Interpreten eine bestimmte Klasse von Griffen, die er automatisch in jeder Tonart spontan richtig auf die Tasten bringt. und erst in zweiter Linie (jedenfalls was die Aktivität seines Gerhirnes während einer Aufführung angeht) eine Klasse von Klängen.

Jeder kreative Prozeß (zb der Kompositionsprozeß als solcher) kann in diesem Rahmenwerk als Transformationskette von Modellen dargestellt werden, welche sich von rein intra-psychischen sukzessive zu physikalischen Modellen bewegt.

Dieser Transformationsprozeß geht aus von einer Hintergrundgenannten initialen Setzung ästhetischer Aufgaben oder Prinzipien, und führt über die sich in der Mittelgrund -struktur abspielenden (sic!) Transformationsprozesse zu Vordergrund -strukturen, welche allemal physikalische Modelle sind.

Die Mittelgrund-Strukturen können gesehen werden als eine Kollektion von verschiedenen Bestimmungsschichten. Diese sind a priori unabhängig von einander, abgesehen davon, daß zum Zwecke ästhetischer Kohärenz sie aus möglichst nur einerinitialen Hintergrund-Setzung abgeleitet sein sollten.

Konstitutiv für jedes Kunstwerk sind nun die sich in den verschiedenen Bestimmungsschichten des Mittelgrunds ergebenden Konflikte, zu deren Auflösung jedesmal neue Setzungung, i.e. Entscheidungendes ästhetische handelnden Subjektes notwendig sind.

Ein einfaches Beispiel aus der "klassisch/romantischen" Satztechnik: Soll eine prozessuale Vermittlung zwischen zwei harmonischen Zuständen hergestellt werden, z.b. durch sequenzierende Wiederholung eines Motives, so treten dessen Intervallstruktur und die Tonmengen der End- und Zwischenzustände in einen konflikt, der die typischen "Verbiegungen" von Moriven in den klassischen Durchführungsabschnitten hervorbringen.

Die ästhetische Forschungstätigkeit des Vortragenden in den letzten Jahren zielte nicht zuletzt darauf ab, einen möglichen Katalog derartiger Entscheidungsmechanismen aufzustellen.

Musikalische Analyse kann nun in diesem Rahmenwerk begriffen werden als die Rekonstruktion eines möglichen Mittelgrundes von Ableitungsschichten für einen gegebenen Vordergrund und möglicherweise bekannten Hintergrund.

Im Falle der Analyse gegebener Werke Dritter ist dieses Vorgehen immer ein grundlegend spekulatives, --- die Ergebnisse können für sich allerhöchstens "subjektive Überzeugungskraft" oder strukturelle Einfachheit reklamieren. "Eindeutig wahr" werden derartige Erkenntnisse selten, --- oft aber durchaus "wirkmächtig", sind also selbst ästhetische Phänomene.

In Parenthese sei angemerkt, daß bestimmte Spielarten von Musiktheorie so rekursiv fundiert werden können, --- ein Verfahren, welches durchaus analog ist zu rekursiven Fundierungsstrategien in der Mathematik.

Anders bei der ästhetischen Synthese.
Hier besteht durchaus die Hoffnung, daß der Einsatz des Digitalrechners in der ästhetischen Produktion neue Erkenntnisse über den intra-psychischen Ablauf ästhetischer Entscheidungen mit sich bringen kann.

Die zentrale Annahme, welche es ermöglichen soll, konkrete Entwicklung, --- also Programmierung --- auf die Ebene der Forschung und des Erkenntnisgewinnes zu heben, ist die, daß "der Rechner nichts verzeiht" und jedes Computersystem von Hause aus "ignorant" ist.
Alle Bestandteile des intra-psychischen Kalküls müssen demzufolge explizit und ex ovoin das datenverarbeitenden System eingebracht werden, --- nicht hinreichend scharfe Definitionen, nicht hinreichend mächtige Ausdrucksmittel werden vom Computersystem selbst aufgedeckt.

Somit erfüllt die maschinelle Verarbeitung die Funktion einer Sonde, welche die physikalisch/mathematisch realisierten Meta-Modelle und Kalküle (mehr oder weniger exakt) als Abbild des intra-psychischen Meta-Modelles bestätigt oder kritisiert.

Synthese wirkt somit (1) als Prüfstein für jede Material-Analyse und -Disposition im konkreten Einzelfall, so diese ein Meta-Modell behaupten, --- aber auch (2) als Anregung zu weitergehender Erforschung der Begrifflichkeiten im domain-Bereich und (3) auch als Impuls zur Weiterentwicklung der technologischen Meta-Meta-Modelle, da diese ihre Grenzen nur durch ihre Anwendung deutlich offenbaren.

^Inh 3.3.1 EXKURS: Programmierung als Forschung: Text-Meta-Modelle im D2D Projekt

In diesem Sinne ist "Programmieren" tatsächlich Forschung, --- vorausgesetzt, daß Niveau der angewandten Programmiersprache ist hinreichend zeitgemäß, abstrakt und deklarativ.

Dies hat sich z.B. deutlich herausgestellt bei unserem "D2D"-Projekt ([ltw01b][ltw02b]), welches die Aufgabe hat, die aktuelle XML-Technologie für das wissenschaftliche oder literarische Schreiben zu öffnen: Aspekte von Ergonomie, ja gar von Hand-Physiologie, von Linguistik und bezg. der Anwendbarkeit des mathematischen Begriffes von "Sprache" und von Parsierungstechniken mußten zusammengeführt werden, um ein in der Praxis sich bewährendes Produkt zustande zu bringen.
So haben wir mittlerweile ein Meta-Meta-Modell, welches für die Aufgabe wissenschaftlicher Dokumentation in den verschiedensten sog. "domains" instantiierbar ist. Diese Instantiierung besteht in der Erstellung des notwendigen Meta-Modelles. Dies ist ein durchaus aufwendiger Prozeß, der aber immer auch neue Fragen an, --- und somit Erkenntnisse über --- die Struktur des Denkens der domain-Expertinnen und -Experten selbst mit sich bringt.

^Inh 3.4 Die "Sondenfunktion" als zentrales Paradigma der Musikinformatik

Aufgrund dieser Erfahrungen läßt sich nun formulieren ein mögliches zentrales Programm für die weitere Entwicklung der Musikinformatik :

Musikinformatik muß (statt lediglich die Vordergrundphänomene), endlich auch den intra-psychisch konstituierten Mittelgrund mathematisch (also "physikalisch" / "anfassbar") repräsentieren.

Die Sonden-Funktion digitaltechnischer Implementierungen wird im Falle der ästhetischen Produktion und Analyse durch zwei Arten von Maßnahmen realisiert:

  1. (a) durch die Konstruktion von aufgaben-spezifischen front- und middle-ends.
  2. (b) durch die exakte Protokollierung von punktuellen Modifikationen.

^Inh 3.4.1 Front-End Entwicklung

Zu 1)
In der avancierten Programmierpraxis wird der wenigste Programm-Text noch "zu Fuß" programmiert. Vielmehr ist es durchaus üblich, "in eine Programmiersprache hinein" zu generieren. Programmiersprachen wie C++, Lisp oder Java werden zunehmend als "back-ends" betrachtet, und der Programmtext aus einer domain-spezifischen Spezifikations- oder Modellierungssprache, die möglichst deklarativen Charakter haben soll, automatisch hergestellt.

Dies sollte u.E. völlig analog auf Klangsynthese und -verarbeitungs-Werkzeuge übertragen werden.

Am Anfang steht dabei allemal die Analyse des psycho-internen Modelles, der Grundvorstellung, soweit dieses dem Bewußtsein zugänglich ist: Was sind die grundlegenden Klangfamilien und deren Ableitungen, was sind die intendierten Prozesse und Übergänge, welche Art von Konstrast und Vermittelung scheinen dem oder der Komponierenden im Rahmen der Vorstellung von diesem konkreten Werk, --- oder auch im Allgemeinen, --- notwendig?

Der zweite Schritt ist dann der der Synthese : Welche Ausdrucksmittel muß eine Sprache oder ein Kalkülhaben, um diese Elemente, ihre Anordnung und ihre Beziehungen auszudrücken?
Analyse und Synthese können sowohl mit dem Entwurf des "middle-end" beginnen, also der rein mathematisch definierten Kollektion von Entitäten und Relationen, oder aber auch am "front-end", also der konkreten Schreibweise, dem konkreten Partiturformat, das als adäquat für das gegebene Projekt aufgestellt worden ist, oder auch am "back-end", also mit den Strukturen der konkret anzusteuernden Soft- und Hardware.

Hier nun setzt bereits ein erster Rückkopplungsprozess ein, welcher im Spannungsfeld von Analyse und Synthese möglicherweise in's Allgemeine übertragbare Erkenntnisse mit sich bringt, indem gefragt wird:
Ist die Synthese des Meta-Modelles hinreichend feingranular, um die in der Analyse gewonnenen Strukturmerkmale zu repräsentieren? --- und umgekehrt: Ergeben sich aus dem Ausdrucksumfang der synthetisierten Beschreibungssprache neue Aspekte oder feinere Differenzierungen, welche in der Analysephase übersehen wurden?

In einem nächsten Schritt werden die rechner-internen Modell-Transformation implementiert, welche die "physikalische" Entsprechung der psycho-internen Ableitungsvorgänge (im Mittelgrund) sind, und in einem weiteren Schritt schließlich die Abbildungen auf ein klangerzeugendes back-end.

Spätestens hier werden Rückkopplungswirkungen unausweichlich: In den meisten Fällen wird die Mächtigkeit des front-ends nicht ausreichen, die klanglichen Resultate genau genug der inneren Vorstellung entsprechend zu spezifizieren, und in iterativen Zyklen müssen front-end und implementierte Transformationen dieser zunehmend angenähert werden.

Da rehcnerintern prinzipiell ersteinmal alles "ex ovo" konstruiert werden muß, müssen die vor-letzten Ableitungsschritte, die sonst die Konvention und das trainierte Unterbewußte des interpretierenden Instrumentalisten hinzufügt, allesamt explizit modelliert werden, -- z.B. durch regelbasierte Agogik. Welche front-end Beschreibungsmittel und welche Transformationsverfahren ermöglichen dies?

Damit aber nähern wir uns dem letztlichen Erkenntnisziel der Musikinformatik: Welche mathematische/quasi-physikalische Repräsentation entspricht tatsächlich den Ablaufmustern des kompositorischen Denkens ?

^Inh 3.4.2 Punktuelle Modifikationen

Wem eine derartig definierte Produktionskette als umständlicher Umweg erscheinen mag, der sei versichert, ...

Erstens: das Verfahren der Abstraktion ist das genuin-adäquate Verfahren für den Einsatz von Digitalrechnern, --- nicht das Mäuschenklicken. Zweckmäßige, der zu modellierenden Sache adäquate Abstraktion führt in der Tat zu einem höheren Freiheitsgrad, da sie die definitorischen Tätigkeiten des Benutzers auf die tatsächlich von ihr oder ihm intendierten Ausdrucksformen zu konzentrieren erlaubt.
Letztlich wird der Durchsatz höher, --- Umschlag von Quantität in Qualität, --- von Menge in Entscheidungsfreiheit.

Zweitens hat die extensionale Darstellung am Ende der Transformationskette vielleicht denselben Informationsgehalt wie eine "händisch" konstruierte Partitur in Hinsicht auf das klangliche Resultat, aber keinesfalls bezogen auf auf die intendierte Semantik, da die Abbildung von der intensionalen middle-end Darstellung in eine extensionale back-end Darstellung, also die Abbildung von Mg-Maßnahmen in Vg-Phänomene, niemals injektiv sein kann.
Dies wird deutlich im Zusammenhang mit der zweiten Aufgabenstellung, der Unterstützung und Protokollierung punktueller Modifikationen.

Man betrachte z.B. eine kompositorische Maßnahme, die, im Vordergrund, die folgende erste Zeile in die zweite transformiert:

Notenbeispiel, in welchem "ein bestimmtes" f in ein fis verwandelt wird, und doch "dieselbe Note" bleiben soll.

Eben diese eine, einfache Veränderung kann Exprimierung einer unendlichen Menge von durchaus unterschiedlichen Maßnahmen im psycho-interenn Mittelgrund sein. Z.B. ...

  1. tausche die erste auftretenden Tonhöhe der Klasse "f" gegen das nächststehende "fis" aus,
  2. erhöhe vierten Anschlag un einen Halbton
  3. erhöhe vierten Anschlag un ein beliebiges Intervall (größer Prime!)
  4. erhöhe alle f, die in aufwärts-Skalen stehen.
  5. setze das einzelne Ereignis mit dem Namen "Id=X" auf die Tonhöhe fis',

^Inh 4 Ein Hauptproblem der Didaktik

Als ein zentrales Problem der Didaktik stellt sich allerdings bald heraus, daß oben aufgestellte zentrale Annahme, --- die der "ex ovo" Ignoranz des Rechners --- in dieser apodiktischen Form leider nicht zutrifft.
Vielmehr kommt ja jeder Rechner und jede Programmiersprache einher mit ihrem eigenen Verhalten, ihrer eigenen inneren Semantik.
Dieser sich zu bedienen macht ja gerade ihren Zweck aus.

Allerdings --- und dies vermag interessierte Laien jedesmal wieder auf's höchste zu erstaunen --- sind diese zu einem nicht geringen Teil uns schlichtweg unbekannt. Es scheint schwer glaublich, daß so kontrolliert erscheinende menschliche Artefakte wie mathematisch genau definierte Kalküle Gegenstand unserer Unkenntnis und noch der Erforschung bedürftig sein können?
Genau das aber ist, selbst bei den einfachsten Kalkülen, häufig der Fall.
Z.B. das berühmte "Lambda-Kalkül" von Church und Kleene ([lambda]):

  1. Seine Definition stammt aus den 1930 Jahren und umfasst wenige Zeilen,
  2. es gilt als adäquate und kompakteste Darstellung aller denkbanern Programmiersprachen,
  3. dicke Bücher und Tausende von Seiten wurden seitdem veröffentlicht, die seine Eigenschaften erforschen,
  4. und bis zur Veröffentlichung einer "Semantik" (also "was es denn eigentlich be-deuten solle") durch Scott brauchte es vier Jahrzehnte.

Um so mehr gilt die "Notwendigkeit von tatsächlicher Forschung" bei unter-spezifizierten und un-überschaubaren Werkzeugen, wie z.B. Computerhardware und Programmiersprachen, mit denen doch allerorten scheinbar erfolgreich und problemlos umgegangen wird!

Informatiker meiner Generation hatten noch die Gelegenheit, jedes Bit einzeln durch die Drähte flitzen zu sehen, --- damals konnte man sogar an interrupt controller oder IO Register noch Drähte anlöten, um die Funktionalität eines Apple II e oder Commodore C 64 zu erweitern, --- und somit zu be-greifen.

Die heranwachsende Generation steht nun Systemen gegenüber, die nochmals um zwei bis drei Größenordnungen komplexer sind, und derartige Erfahrungen nun endgültig verunmöglichen, --- selbst die Mehrzahl unserer Informatik-Studierenden sind von Hause aus nur noch "user". Aber auch die "hacker" unter ihnen haben zunehmende Schwierigkeiten, hinter der Hochglanz-Oberfläche von mouseclicks und IDEs zum intellektuellen Kern des Programmierens vorzudringen.

Dieses Phänomen wird von Bildungsexperten aus der Forschung und --- glücklicherweise --- inzwischen auch aus der Wirtschaft als ein höchst gravierendes und dabei äußerst politisches eingeschätzt.
Dankenswerterweise u.a. aufgewiesen von Fr. Renate Köche, GF Allensbach auf einem Symposium der AcaTech am 11. Mai 04 in Berlin, [acatech04].

Deshalb ist es von entscheidender Wichtigkeit, und es kann nicht stark genug betont werden, daß die Mechanismen des Rechners/der Programmiersprachen/der Kalküle selbst, also die Eigengesetze des anzuwendenden Werkzeuges, zunächst kritisch reflektiert und danach bewußt eingesetzt werden.

Die Welt der ästhetischen Konzepte und die Struktur der Werkzeuge sind zwei zunächst unrelierte Seinsbereiche mit eigenen Gesetzmäßigkeiten, welche durch ein Drittes, nämlich die angewandte Mathematik, bewußt verknüpft werden müssen.

Nur dadurch läßt sich der Digitalrechner zum Zwecke höherer Klarheit, zum Zwecke der Aufklärung und Selbst-Vergewisserung einsetzen. Andernfalls ergibt sich nämlich genau das Gegenteil: Zunehmende Verunklarung durch das In-einander-Wirken zweier unterschiedlicher und beide nicht genau verstandener Mechanismen.

In diesem Sinne kann die Didaktik der Informatik und der Musikinformatik durchaus einen Beitrag leisten zu einem bewußteren und wohlbegründbar kritischeren Umgang mit dem Digitalrechner auch in anderen Anwendungsbereichen.

^Inh 5 Der Lösungsansatz des MMod -Projektes

In diesem Kontext nun muß sich auch die Definition der Rahmen eines jeden Entwicklungsprojektes konkreter musik-informaitischer Werkzeuge positionieren.
Lassen Sie mich zum Abschluß kurz darstellen, wie die grundlegenden Überlegungen und konkreten Konsequenzen bei den diesbezüglichen Aktivitäten meines Kollegen Baltasar Trancón und meiner aussehnen. Deren Arbeitstitel ist übrigens z.Zt. schlicht "mmod".

Jedes Meta-Modell präformiert die Menge der in ihm darstellbaren möglichen Modelle, und kommt i.A. daher mit einer Menge von Regeln, wie diese Modelle in Modelle anderer Meta-Modelle übersetzbar sind. Diese Regeln konstituieren in der Informatik die sogenannte "Semantik". Semantik im Sinne der Informatik ist also eine mathematische Transformation zwischen zwei Meta-Modellen, also immer nur relativ und dynamisch definiert, --- ein Beispiel für ein Denkmuster, das dank ihrer mathematischen Substanz in der Informatik am klarsten ausgeprägt erscheint, aber das auch durchaus auf beliebige andere Bereiche übertragen werden kann.

Wird nun ein digitales Werkzeug, also ein Ensemble von Hardware-Geräten und Software-Programmen, zum Zwecke dieser Modelltransformationen eingesetzt, so sind wir beim letzten zentralen kritischen Punkt der wissenschaftlichen Musikinformatik angelangt:

Jedes Werkzeug nämlich, und sei es nur eine Codierung, kommt daher mit seinem eigenen Meta-Modell. Dieses präformiert, wie erwähnt, die Menge der möglichen, darstellbaren Modelle, und zwar teilweise erheblich.

Der sog. "künstlerischen Freiheit" der Inspiration und der (jedenfalls theoretischen) nicht-prae-Determiniertheit der ästhetischen Entscheidungen kann eine Digitaltechnische Unterstützung also keinesfalls entsprechen, die ein bestimmtes Meta-Modell realisiert, und sei dieses noch so flexibel. Vielmehr muß sie ein Meta-Meta-Modell realisieren, welches es erlaubt, das dem konkreten künstlerischen Vorhaben adäquate Meta-Modell auf einfache Weise zu konstruieren.
In dieser Hinsicht steht künstlerisch anspruchsvolle Synthese und wissenschaftlich orientierte Forschung im diametralen Gegensatz zu kommerziell erhältlichen Werkzeugen, deren Sinn es ist, ein bestimmtes, vordefiniertes Meta-Modell auf komfortabelste Weise zu realisieren.

Aufgabe der wissenschaftlichen F&E Arbeit, soweit sie angewandte Grundlagenforschung ist, ist es, professionelle Werkzeuge zu entwickeln, die dann ggfls. von industriellen Partnern mit Hochglanz-Oberflächen und -Handbüchern ausgestattet werden.
Nette GUIs erstellen kann auch ein Programmierer, --- ihre Optik und Handhabung zu entwerfen, dafür bedarf es PsychologInnen und DesignerInnen.
Jedoch eine mathematisch wohlfundierte Sprache zu entwickeln, die eine hinreichende Spezifikation solcher GUIs ermöglichen, ist fast nur in der akademischen Forschung möglich.

Die in diesen kommerziellen Werkzeugen erreichte Komfortabilität kann selbstverständlich im Rahmen der akademischen Angewandten Grundlagenforschung und Systementwicklung niemals erreicht werden. Allerdings ändert sich die Gesamtsituation zunehmend zu unseren Gunsten
("time is on our side"):
Die auch von kommerziellen Anwendern geforderte Interoperabilität (Stichwort: standardisierte, XML-basierte Austauschformate) erlaubt es, kommerzielle Werkzeuge als front-end oder back-end einzusetzen, ohne auf die von diesen vorgeschriebenen Meta-Modelle eingeschränkt zu sein.

Deshalb können wir es uns heutzutage leisten, MMod als Meta-Meta-Modell zu implementieren, und dennoch in absehbarer Zeit die konkrete Anwendbarkeit zu erreichen, --- ein Ansatz, der in ca. 10 Jahren auch die Industrie erreicht haben wird.

Dabei ist die Defintion der Meta-Meta-Ebene, also der Infrastruktur des Systems, durchaus deduktiv, ensteht als technische Umsetzung der Zusammenfassung der aller-abstrakten Ergebnisse unserer lebenslangen Forschung im Bereich Musik und ihrer Repräsentation.

Die Meta-Modelle hingegen werden darin dann induktiv definiert! Jedes Teil-Projekt muß das Recht haben, seine eigene Datenwelt nach seinen eigenen. je spezifischen Bedürfnissen aufzubauen.
Die Ebene darunter nur ermöglicht dann die (potentielle) Interoperabilität.

Mathematisch/technisches Mittel der Wahlt sind dabei nicht zuletzt "freie Adjunkte" und "Co-Algebraisch definierte Datenstrukturen". Forschung und Implementierung beosnders zu letzteren sind weltweit noch in den Anfängen, und so kann das MMod-Projekt auch zu einer allgemeineren Grundlagenforschung beitragen.

^Inh 6 Musikinformatik und Musikphilosophie

Abschließend sei angemerkt, daß die analytischen Methoden der Musikinformatik durchaus ernste Beiträge zu Musiktheorie und -philosophie leisten können:

Im einfachsten Falle einfach dadurch, daß die Begrifflichkeiten der ästhetologischen Diskussion deutlich weniger mißverständlich vereinbart werden können durch eine Abbildung in wohlerforschte mathematische Strukturen.
Auch dies wiederumg ein Beispiel für die Konstitution von Semantik durch Modelltransformation, diesmal auf der wissenschaftstheoretischen Meta-Ebene.

Ehe nämlich Musikanalytiker und -analztikerinnen sich z.B. über die Berechtigtheit eines funktionalen Symbols für einen bestimmten Akkord in einem bestimmten Kontext streiten, sollte eigentlich zunächst geklärt sein, was dieses Symbol (zB. in bestimmten Meta-Modellen von Harmonik) tatsächlich gleichsam "materiell" bedeutet.

Dazu bieten sich die wohlerforschten Standardmethoden der Informatik geradezu an, enn Sprachen und symbolische Kalküle sowie deren Semantiken sind genuine Gegenstände der Informatik.

Die Frage nach dem Material von Musik ist aber nicht die Frage nach ihrer Substanz.

Die Substanz jeden Werkes lebt in den Tiefendimensionen des Mittelgrundes, gebildet von historischer Entwicklung und eigener Erfahrung, in welchem dieses Material transformiert wird.
Das Material kann als Meta-Modell (mit präformierenden Eigengesetzen) aufgefaßt werden, --- die Substanz als Menge von Modell-Transformationen. Auch hier erscheinen die Morphismen, nicht die Objekte, als first-class residents.
Jedoch ist es unzweifelhaft, daß eine genaue Durchdringung und hinreichend exakte Spezifikation zunächst der jeweiligen Materialbegriffe Voraussetzung für die Zeckmäßigkeit jeden Reflektierens ist, --- und es scheint weitergehend möglich, daß diese "technischen" Klärungsprozesse auch in den Bereich des Schaffens und der Analyse hinein inhaltlich fruchtbar werden.
Der Vortragende jedenfalls hat die Hoffnung, daß durch mathematische Modellierungen hindurch wir den inhaltlichen Geheimnissen von denjenigen Strukturen näher kommen, welche sich den konventionellen Erklärungsmustern verweigern, --- seien es die Takte 16 bis 24 des ersten Satzes des späten cis-moll-Quartettes, sei es das Vorspiel zu Lohengrin, sei es Sister Ray von Velvet Underground, --- sei es, was und wie es wolle, es folge nur seinen geheimen eigenen Regeln.

^Inh Bibliographie

[kitmumath04]
Thomas Noll, Monika Brand, Jörg Garbers, Andreas Neske, Anja Volk
Computer Aided Representation, Analysis and Conveyance of Music and Music-Theoretical Structures
TU Berlin, Berlin, 2004
http://flp.cs.tu-berlin.de/publikationen/kit/r149.pdf
[Lesaffre03]
Micheline Lesaffre, Dirk Moelants
User Behaviour in the Spontaneous Reproduction of Musical Pieces by Vocal Query
in: [escom03]

[escom03]
Abstracts of the 5th Triennial Conference of the European Society for the Cognitive Schiences of Music (ESCOM)
Reinhard Kopiez, Andreas C. Lehmann, Irving Wolther, Christian Wolf(Hrsg.)
Hanover University of Music and Drama, Hannover, 2003

[unbehauen82]
Heinz Unbehauen
Regelungstechnik
Vieweg, Braunschweig, Wiesbaden, 1982

[hofmann01]
Axel Hofmann
Zweiter Anlauf zur computergestützten Verbrecherjagd
Stern, Hamburg, 2001
http://www.stern.de/digital/computer/polizei-zweiter-anlauf-zur-computergestuetzten-verbrecherjagd-511171.html
[ltw01b]
Lepper, Markus und Trancón y Widemann, Baltasar und Wieland, Jacob // und Markus Lepper, Baltasar Trancón y Widemann, Jacob Wieland
Minimze Mark-Up ! - Natural Writing Should Guide the Design of Textual Modeling Frontends
in: Conceptual Modeling -- ER2001, LNCS, Vol.2224,
Springer, Berlin, Heidelberg, New York, 2001
http://markuslepper.eu/papers/er2001.pdf
[ltw02b]
Lepper, Markus und Trancón y Widemann, Baltasar und Wieland, Jacob
XML-based Acquisition of Fine-Granular Structured Data by Grammar Morphisms
Berlin, 2002
http://markuslepper.eu/papers/er2002.pdf
[lambda]
Das Lambda-Kalfül
WORLD, 2002
http://de.wikipedia.org/wiki/Lambda-Kalk%C3%BCl
[acatech04]

Symposion der Akademie der Technikwissenschaften (acatech) zum Thema "Innovationsfähigkeit in Deutschland"
Berlin, Mai 2004
http://www.berlinonline.de/berliner-zeitung/archiv/.bin/dump.fcgi/2004/0512/wissenschaft/0052/index.html



1
Einzige Ausnahme von dieser Dominanz des rein Quantitativen scheinen Inferenzsysteme/Theorembeweiser zu sein.

2 Dieser leicht faschistoide Anglizismus ist tatsächlich etablierter terminus technicus !






made    2014-01-10_16h52   by    lepper   on    heine          Valid XHTML 1.0 Transitional Valid CSS 2.1
produced with eu.bandm.metatools.d2d    and    XSLT