Für neue Biomarker und Arzneimittel-Kandidaten

Kombiniere: Vielstoff- und Big-Data-Analyse

Die Analyse von Vielstoffgemischen ist der Schlüssel zur modernen Diagnose und Therapie. Allerdings bedarf es heute mehr als einer klassischen Trennung und Substanzidentifkation – vor allem Automation und Big-Data-Management.


Male biochemist working in the lab on plants
Pflanzen können Arzneistoff-Kandidaten liefern – Voraussetzung ist die analytische Untersuchung ihrer Inhaltsstoffe.

Die einzelnen Komponenten eines Vielstoffgemischs sollen nach Durchlaufen der Hochleistungsflüssigkeitschromatographie-Säule (HPLC) basisliniengetrennt sein. Darüber hinaus soll gleich im Anschluss eine Übergabe zum Massenspektrometer (MS) und zur kernmagnetischen Resonanzanalyse (NMR) stattfinden, gegebenenfalls mit zwischengeschalteter Festphasenextraktion (SPE) zwecks Anreicherung von interessierenden Komponenten.

In Forschung und Industrie sind bereits heute HPLC-SPE-MS-NMR-Vollautomaten im Einsatz. Beispielsweise haben Forscher damit die Komponenten von Xanthium sibiricum (Sibirische Spitzklette) identifiziert. Die Pflanze wird volksmedizinsch gegen Fieber, Kopfschmerzen, Sinusitis, Pruritus und sogar gegen Krebs angewandt1. So sind die Komponenten gleichzeitig Kandidaten für neue Arzneistoffe gegen die genannten Erkrankungen.

Sowohl das Massen- als auch das NMR-Spektrum eröffnet selbst in kniffligen Fällen gute Chancen zur Strukturidentifizierung. Dazu lassen sich beide Informationen (NMR + LC-MS) mit der sogenannten statistischen Heterokorrelationsspektroskopie (SHY) zusammenführen, um aus den vielen Daten die interessierende Verbindung zu ermitteln.

Medicine doctor working with modern computer interface
Moderne Laboranalytik liefert informationsgesättigte und dabei komplexe Informationen.

Andere neuartige Big-Data-Verfahren könnten beim Erforschen von Störungen der Blutgerinnung und weiteren mit Lipiden in Zusammenhang stehenden Erkrankungen helfen. Auf Lipidanalytik spezialisierte Software kann heute massenspektrometrische Daten (z.B. Molekülion, Fragmentierungsmuster inkl. Voläufer-Ionen, Fragment-Ionen, Ladungszustand, Addukt-Ionen) nutzen2.

Primär dient eine solche Knowledge-Base zum Design gezielter Analyseverfahren für praxisrelevante Fragestellungen. Der Anwender gibt zum Beispiel Kopf-Gruppen, Addukte, Fettsäuren und Basen der interessierenden Lipide ein, und die Software errechnet eine (lange) Liste von Fragmentionen inklusive ihrer Intensitäten. Darüber hinaus lassen sich auch die Kollisionsenergien für das Massenspektrometer optimieren. In zweiter Linie wird die Software als Spektral-Bibliothek verwendet.

So erschliessen eine stärker automatisierte und damit schnellere Vielstoffanalytik sowie die Big-Data-Auswertung der ermittelten Daten (HPLC-Retentionszeit, MS, NMR) grosse Potenziale. Als Lohn für die Mühe winken die Identifizierung von neuen Biomarkern und Arzneistoff-Kandidaten.

Big-Data-Analysen stellen ein wichtiges Bindeglied zwischen der Datenflut aus dem Labor und chemisch, pharmazeutisch und klinisch relevanten Informationen dar.

Die ganze Bandbreite der Fortschritte in der Analyse von Vielstoffgemischen und in der Ableitung chemisch, pharmazeutisch und medizinisch relevanter Informationen daraus erlebt der Besucher auf der diesjährigen Ilmac.