Archive - Mär 30, 2006

Bischoff Chromatography verbessert HPLC

<a href=http://www.bischoff-chrom.de>Bischoff Chromatography</a> bietet einen neuen Weg zur Verbesserung der HPLC: Die phasen-optimierten Flüssigkeitschromatographie (POPLC). Das wichtigste Werkzeug bei der Methodenentwicklung in der HPLC ist die Selektivität der stationären Phase. Ihr Stellenwert ist allein an der Anzahl der kommerziell verfügbaren RP-Phasen abzulesen - deren Zahl liegt bis dato bei 750 und jährlich kommen neue Packungsmaterialien hinzu. Daraus die richtige Säule für eine Applikation zu finden, ist nicht leicht. Diese Suche muss häufig durch eine aufwendige Optimierung der mobilen Phase kompensiert werden. Mit der neuen Phasen-optimierten Flüssigkeitschromatographie (POPLC) ist die Optimierung der Trennung wesentlich einfacher: Nach einer groben Auswahl der mobilen Phase wird dabei nur die stationäre Phase optimiert. <b>Vorgehensweise</b>: Aus Vorversuchen wird eine mobile Phase hergestellt und damit unter jeweils gleichen Bedingungen auf verschiedenen stationären Phasen die Retentionszeit für alle Komponenten isokratisch bestimmt. Für diese Basismessungen kommen in ihrer Selektivität möglichst unterschiedliche stationäre Phasen zum Einsatz. Verschiedene Analyten zeigen nun auf den unterschiedlichen stationären Phasen nicht identisches Retentionsverhalten, da jede stationäre Phase mit unterschiedlichen Stellen des Moleküls verschieden starke Wechselwirkungen eingeht. Die gemessenen Retentionszeiten werden dann in einer Optimierungssoftware verarbeitet. Diese berechnet daraus die optimale Zusammensetzung und Anzahl der Säulensegmente. Bischoff Chromatography verbessert HPLC

Eigene kalibrierte Gas-Konzentrationen erzeugen

<a href=http://www.vici.com>Vici</a> bringt einen Gas-Kalibrator auf den Markt, mit dem präzise Gas-Konzentrationen erzeugt werden können. <% image name="Dyna_150" %><p> Der Dynacalibrator 150 ist eine kompakte Einheit mit einer passivierten, glasbeschichteten Diffusionskammer. Darin steht das gewählte Diffusions-Röhrchen. Mit dem inerten Trägergasstrom wird dann das erzeugte Kalibiergas aus der Kammer gespült. Der digitale Temperaturregler hält die Kammertemperatur auf dem eingestellten Wert mit einer Präzision von ±0.01 °C "traceable to NIST standards". Die Kammertemperatur lässt sich im Bereich von 5 °C über Raumtemperatur bis 110 °C einstellen. Dadurch kann ein breites Spektrum an Komponenten vom niedrigen bis in den hohen Dampfdruckbereich verdampfen. Die volumetrische Konzentration lässt sich dann einfach durch Veränderung des Trägergasstroms einstellen. Eigene kalibrierte Gas-Konzentrationen erzeugen

ErSol verringert Silizium-Abhängigkeit

Mit dem Einstieg in die Dünnschicht-Technologie will <a href=http://www.ersol.de>ErSol</a> dem Siliziummangel am Markt begegnen. Die Erfurter haben dazu einen Vorvertrag mit der Schweizer <a href=http://www.unaxis.com>Unaxis</a> über Fertigungsanlagen für Silizium-Dünnschicht-Module unterzeichnet. <% image name="Sonnenstrahlen" %><p> Bis 2008 plant ErSol den Aufbau einer Fertigungskapazität von 40 MWp pro Jahr. Insgesamt sollen mehr als 80 Mio € in die Produktion gesteckt werden und 100 Arbeitsplätze entstehen. Mittelfristiges Kapazitätsziel bei den Dünnschicht-Modulen sind 100 MWp. Zwar sind die Dünnschicht-Module wesentlich uneffektiver als die herkömmlichen kristallinen Widerparts, lassen sich aber erheblich günstiger herstellen. ErSol setzt bei der Herstellung seiner Dünnschicht-Solarmodule auf einen Vakuumprozess, das so genannte PECVD-Verfahren (Plasma Enhanced Chemical Vapor Deposition) auf der Basis von amorphem Silizium. ErSol verringert Silizium-Abhängigkeit

Degussa verkauft Water Chemicals-Geschäft

<a href=http://www.degussa.de>Degussa</a> verkauft ihr Water Chemicals-Geschäft an Ashland. Der Kaufpreis beträgt inklusive der zu übernehmenden Schulden 120 Mio €. Degussa verkauft Water Chemicals-Geschäft <% image name="Degussa" %><p> Angesichts des Konsolidierungsprozesses in der Wasserchemie-Branche hatte der Degussa-Vorstand beschlossen, das Water Chemicals-Geschäft zu veräußern, um ihm die Möglichkeit zu geben, sich in eine führende globale Position weiterzuentwickeln. „Der Bereich Abwasserbehandlung nimmt in der Weltwirtschaft eine immer wichtigere Rolle ein. Durch den Erwerb des Water-Chemicals-Geschäfts der Degussa wird Ashland an diesem Wachstumsmarkt teilhaben“, so James J. O´Brien, Vorstandsvorsitzender von Ashland. Die Water Chemicals-Aktivitäten von Degussa umfassen Spezialchemikalien im Wesentlichen für die Fest-/Flüssigtrennung in den Bereichen kommunale und industrielle Abwasserbehandlung, in der Papier-, Mining- und Erdölindustrie sowie für die Antibelagsbehandlung in wasserführenden Systemen. 2005 erwirtschafteten mehr als 500 Mitarbeiter einen Umsatz von etwa 200 Mio €.

Neues Prüfverfahren für Kunststoffteile

Der Flugzeugzulieferer <a href=http://www.facc.at>FACC</a> hat gemeinsam mit der Fachhochschule Wels ein thermographisches Prüfverfahren für Kunststoffkomponenten entwickelt, das schneller und günstiger als herkömmliche Systeme arbeitet. Neues Prüfverfahren für Kunststoffteile <% image name="FACC_Winglet" %><p> <small> FH Wels und FACC entwickelten thermografisches Prüfverfahren. © FACC </small> Herkömmliche Prüfverfahren für Kunststoffteile sind zeitraubend und kostenintensiv: selbst für die Prüfung eines Quadratmeters der einfachsten Form – einer ebenen Fläche – wird schon einmal eine Viertelstunde oder mehr aufgewendet. Der oberösterreichische Flugzeugzulieferer FACC und die FH Wels haben nun gemeinsam ein Verfahren entwickelt, welches das Potenzial hat, weitaus schneller und günstiger einsetzbar zu sein. „Bis dato haben wir traditionellerweise auf Ultraschall zur Prüfung von Kunststoffteilen gesetzt“, erklärt Helmuth Höller. Höller ist Head of Quality Inspection bei FACC und unter anderem zuständig für die zerstörende und nicht zerstörende Prüfung von Bauteilen. „Mit der Fachhochschule haben wir ein thermografisches Verfahren entwickelt, das Fehler in Composit-Bauteilen aufspüren kann. Wir versprechen uns von dieser Methode, künftig schneller und kostengünstiger prüfen zu können“. Das Ausmaß der Beschleunigung sei aber zum jetzigen Zeitpunkt noch schwierig zu beurteilen, vor allem da es sich in der Praxis um komplexe Bauteile handle. <b>Thermografie.</b> Die Methode der Thermografie wird in der Industrie bereits erfolgreich eingesetzt, so zum Beispiel bei Stahlteilen. Sogar im Kunststoff-Bereich wird Thermografie bereits eingesetzt – jedoch herrscht hier noch ein geringer Wissensstand. „Es geht immer um die Fehlerkriterien, man kann nicht alle Kunststoffe über einen Kamm scheren. Ein faserverstärkter Kunststoff im Automobilbereich ist anders zu prüfen als beispielsweise Volllaminatteile für die Luftfahrt“. Die herkömmliche händische Pulsecho-Prüfung ist sehr zeitaufwändig: Das Werkstück muss im Rasterverfahren langsam abgefahren werden. „Der Aufwand ist stark abhängig von der Fehlergröße, die gesucht werden soll“, so Höller. „Sucht man einen Fehler von 6 mm Breite, benötigt man einen Spurabstand von nicht mehr als 2 mm.“ Beim thermografischen Verfahren dagegen wird das gesamte Teil auf einmal erfasst. „Dabei wird das Werkstück mittels Halogen-Blitzlicht geringfügigst erwärmt. Die hochauflösenden Thermokameras erfassen dann die Unterschiede in der Abkühlungsrate, die entstehen, wenn ein Werkstück fehlerhafte Stellen aufweist“. Je nach Dicke des zu prüfenden Teils wird beim Prüfverfahren auf Reflexion oder Transmission gesetzt. Darüber hinaus besteht auch die Möglichkeit, das Bauteil mittels Ultraschall zu erwärmen und danach die Abkühlungsrate zu messen.

Klimaanlage für den Vienna Skylink

Mit dem Ausbau des Wiener Flughafens wurde der Ausbau der Kältezentrale notwendig. Das Projekt „Kältezentrale Nordost“ hat die steirische <a href=http://www.smb.at>SMB</a> abgewickelt – der größte Einzelauftrag in ihrer Unternehmensgeschichte. <% image name="SMB_Haus_gesamt" %><p> <small> Neue Kältezentrale Nordost – knapp 1 km vom Tower entfernt. </small> Projekt „Skylink“: Das meint derzeit Europas größte Hochbau-Baustelle Mitteleuropas. Das bedeutet auch das Hochrüsten des Wiener Flughafens zum unmissverständlich wichtigsten Osteuropa- und Fernost-Hub. Und das bedeutet ein Investment von 400 Mio €, um ein neues sichelförmiges Terminal samt Pier ab 2008 an den bestehenden Terminal-Trakt anzudocken. Neue Check-In-Einrichtungen, Shopping-Meile, Lounges, 51 neue Gates – auf einer Gesamtlänge von 730 m und eine Geschossfläche von 150.000 m2. Und all das will wohl temperiert sein. Mit Klimakaltwasser für die Raumkühlung und Belüftung. Aufbereitet von fünf so genannten Chillern, in denen jeweils 220 kg Ammoniak zirkuliert, kondensiert und wieder flüssig wird. Resultat: 6 °C kaltes Wasser anstelle von 12 °C kaltem Wasser. 100 l die Sekunde. Zugestellt durch dicke 600 mm-Rohre. In einem mehrere Kilometer langen Kanalsystem, das sich unterhalb der gesamten Flughafen-Stadt verzweigt. <% image name="SMB_Waermetauscher" %><p> <small> Rückkühleinrichtungen am Dach der Kältezentrale. </small> <b>Wärmetausch.</b> Rund vier Monate lang hat SMB-Ingenieur Reinhard Rinofner mit einer 25 Mann starken Montage-Truppe die neuen GEA-Maschinen aufgebaut. „Es handelt sich dabei um fünf autarke Systeme, die jeweils mit einer Motorleistung von 630 kW rund 2,6 MW thermische Leistung erzeugen und in Folge hydraulisch zusammen geschalten sind“, erzählt der Planungsprofi. „Man kann sich die Anlage als eine Art umgekehrte Wärmepumpe vorstellen, wobei die Wärmedifferenz eben nicht ,mitgenommen’, sondern ,abgegeben’ wird.“ Mannshohe Wärmetauscher machen das möglich. <% image name="SMB_Rohrsystem" %><p> <small> 600 mm-Rohre erstrecken sich über das gesamte Flughafen-Areal. </small> Pro Kältemaschine sind dabei zwei Rückkühler á 1575 kW Rückkühlleistung angebunden. Diese Rückkühler sind in einen mit einem Glykol-Wassergemisch gespeisten Leitungssystem eingebunden. Im Winter erlaubt dieses System auch ein so genanntes Free Cooling: „Dabei wird das Kaltwasser ohne die Kälteanlagen generiert, indem es über die Kollektoren am Dach der neuen Kältezentrale geführt wird.“ Insgesamt verfügen die beiden Kältezentralen am Wiener Flughafen nun über eine thermische Leistung von 23 MW. Ihr Ausbau kostete rund 12 Mio € – der von SMB abgewickelte Anlagen-Part umfasste 4,4 Mio €, der Rest entfiel auf den Neubau und nicht zuletzt eine notwendig gewordene Hochspannungsanlage mit 5 Trafostationen sowie die Anbindung an das übergeordnete Leitsystem: Einige Hundert Sensoren überwachen im Siemens Simatic-System permanent den Zustand der Anlagen. Klimaanlage für den Vienna Skylink

Downgrading? UPGRADING!

Die Mischung macht’s: Österreichs Kunststoff-Branche zeigt vor, wie durch innovative Compounds aus bereits ausgereizt geglaubten Werkstoffen neue Funktionen – und neue Märkte – entstehen. Downgrading? UPGRADING! <% image name="Poloplast_Compound" %><p> Es ist erfrischend, aus Österreichs Industrie heraus weder von China-Angst noch Osteuropa-Paranoia zu hören. Es tut gut, von Vorsprung zu hören. Und es baut auf, wenn niedrigen Löhnen in Fernost nicht allein hohe im Inland gegenüberstehen, sondern: Auch ein deutlicher Know-how-Vorsprung. Im oberösterreichischen Leonding bei Linz etwa. Dort hat die primär auf Rohrsysteme spezialisierte <a href=http://www.poloplast.at>Poloplast</a> „alle Hände voll zu tun“: Seitdem der Kunststoff-Spezialist nicht allein die beiden Heimmärkte Österreich und Deutschland betreut und sich damit gewissermaßen von der heimischen Baukonjunktur abkoppelte, werden hohe Wachstumsraten erzielt – 2005 sprang der Umsatz um 15 % auf 66 Mio €. Das Rezept von Poloplast-Chef Guntram Bock: „Der hohe Cashflow wird zu einem Gutteil in die Innovationskraft investiert – ohne jedoch in eine reine Kostenspirale einzutreten. Wir haben gelernt, nein zu sagen.“ <b>Vorsprung.</b> Mit simplen Commodity-Rohren wäre es Poloplast unmöglich gewesen, eine starke Marke aufzubauen. Mitte der 1990er-Jahre entstanden veredelte Rohrsysteme, die aufgrund ihrer Hygiene- und Brandschutz-Eigenschaften, ihrer Steifigkeit, Schalldämmung und Leitfähigkeit zum Exportschlager wurden. Dank Ko-Extrusion und Mehrkomponenten-Spritzguss erreichen die Dreischicht-Rohre „POLO-KAL“ heute einen Bekanntheitsgrad von 85 % – vergleichbar mit Marken wie Milka oder Red Bull. Einen ähnlichen Innovationsschub will Poloplast nun mit funktionellen Werkstoffen erzielen: „Unser neues Standbein – maßgeschneiderte Compounds – soll künftig 20 % des Gesamtumsatzes erzielen. Wir schließen damit eine Lücke zwischen den großen Chemie-Konzernen und den Kunststoffverarbeitern: Der Drang der Rohstoffhersteller zu immer größeren Polymerisations-Anlagen geht einher mit einem stets kleiner werdenden Produkt-Spektrum dieser Anbieter. Und genau hier treten wir auf den Plan.“ <b>Veredelung.</b> Rund 5 Mio € hat Poloplast in entsprechende neue Produktionsanlagen (eine Kapazität von rund 7.000 t/Jahr) sowie Labors investiert, um nun gemeinsam mit den Kunststoff-Verarbeitern eine Reihe an Werkstoffen zu veredeln. Rund 100 neue Compounds sind in den letzten beiden Jahren bereits im Poloplast-Labor entstanden. Das Hauptaugenmerk legt Poloplast dabei auf das Veredeln von Polyolefinen im Struktur- und Funktionsbereich, auf hochgefüllte Systeme (die rund 80 % an Zusatzstoffen beinhalten) sowie auf sehr zähe – hochmolekulare und viskose – Compounds. Eine völlig neue Werkstoff-Familie hat Poloplast mit „POLO-BLEND“ (PBO, PBC und PBE) entwickelt. Und zwar mit „Hartnäckigkeit“, wie Poloplast-Ingenieur Roman Reder erzählt, „und dem Glauben daran, dass mit neuen Blend-Komponenten durchaus noch sinnvolle Mischungen gefunden werden können“. Durch ein systematisches Trial & Error entstanden so neue Polymere, die im Nanobereich voreingestellte Funktionen übernehmen können. <b>Neue Blends.</b> Die drei Werkstoffe weisen Verbesserungen in mehreren Eigenschaftsfeldern gleichzeitig auf. Sie schließen insbesondere die Lücke zwischen Hochtemperaturplasten und Polyolefine, indem sie eine Langzeit-Temperaturbeständigkeit bis zu 160 Grad C aufweisen. Am weitesten fortgeschritten ist POLO-BLEND PBO, der in dieser Ausprägung bisher noch nicht am Markt verfügbar war. Er lässt sich außerordentlich gut mit Additiven und Füll- bzw. Verstärkungsstoffen modifizieren und überzeugt vor allem durch eine minimale Ausdehnung bei Wärme sowie geringe Reibwerte. Zum Einsatz wird der neue Werkstoff daher in der Autoindustrie, dem chemischen Apparatebau sowie in der Medizintechnik kommen. <hr> <u>Wie Kunststoffe veredelt werden können:</u> &#8226; Polyolefinverstärkung durch Mineralien: Mit Talkum, Kreide oder Bariumsulfat etwa &#8226; Flammschutz durch halogenfreie Polyolefine &#8226; Als Elastomer-modifiziertes oder nukleiertes Polypropylen &#8226; Speziell stabiles Polypropylen (z.B. Kupfer-, Gamma- oder Vakuumstabilisierung) &#8226; Antistatische Polyolefine &#8226; Polyolefin-Blends: Die Kombination mit polaren Thermoplasten &#8226; Mikroporöse, atmungsaktive Strukturen (Breathable Films, die mehr als 10 kg Wasserdampf binnen 24 h diffundieren und damit Filtrations-Funktionen auf molekularer Ebene übernehmen können)

Nano-Wissen meets Business

Martin Mennig von der EPG Engineered nanoProducts Germany in Saarbrücken schildert die Möglichkeiten innovativer Nanobeschichtungen. Er fordert: Statt Rahmenprogrammen mit Fleckerlteppich- und Zufallseffekt braucht Europa endlich eine vertikale Forschungsintegration. <% image name="Mikroskop1" %><p> Nanotechnologie? Inflationärer Begriff! Nennen wir das Kind beim Namen: Ein Werkstoff ist in der Regel so gut wie seine Oberfläche. Punkt. Wir reden von Farbe, von Korrosionsschutz – alleine die Korrosion zersetzt jährlich rund 3 % des weltweiten BIP –, von Härte und Haptik, von der Abriebfestigkeit, von antistatischen und mikrobiziden Eigenschaften, von Licht- und Wärmetransmission, von Reinigbarkeit. „Gute Gründe, um sich mit diesen Oberflächen zu beschäftigen“, sagt Mennig, der in Saarbrücken die universitäre Forschung mit einer eigenen Company der Industrie zuführt. „Die Werkstoffentwicklung, die Werkstoffmärkte und die Werkstoffanwendungen folgen ihren eigenen Gesetzen. Diese Gesetze sind leicht zu verstehen, jedoch gravierend in ihrer Auswirkung auf Entwicklung, Verkauf und Anwendung.“ Als Basiswissen gibt der deutsche Forscher folgendes zur Hand: &#8226; Die Werkstoffentwicklung braucht mindestens zehn Jahre, bis sie als Produkt auf den Markt kommt. Und das bedeutet, dass in Europa – basierend auf den Forschungen der vergangenen Jahrzehnte, ein Vorsprung gegenüber Asien und Nordamerika vorhanden ist. &#8226; Europa weist eine arbeitsteilige Struktur auf: Es wird streng zwischen Werkstoffentwickler und Werkstoffanwender getrennt – zwischen ihnen liegt der freie Markt. Und das wirkt stark innovationshemmend. Denn für diese Arbeitsteiligkeit werden in der Regel Werkstoffe nur dann entwickelt, wenn sie ein ausreichendes Marktvolumen – meist sind das einige Zigtausend Tonnen – aufweisen. &#8226; Beschichtungen für Spezialanwendungen braucht man aber in deutlich kleineren Mengen. Damit werden sie kommerziell kaum angeboten, bleiben also eine ausschließliche Domäne der Forschung. Und genau diesen „Flaschenhals“ Richtung Industrie gelte es zu vermeiden – verbindende Strukturen sind gefordert. Die seit 30 Jahren mangelhafte Forschungsintegration in vertikaler Richtung muss also verwirklicht werden. Und zwar durch wirtschaftliche Anreize für die Grundlagenforschung ebenso wie die Einbindung von Managementstrukturen in die Forschung selbst. <b>Charming Nanoparticles.</b> Innovative Verbundschichten aus Nanopartikeln können auf Polymeren basieren (Methacrylate, Epoxide), elektrochemisch abgeschieden oder durch den Sol-Gel-Prozess aufgetragen werden. Mennigs EPG hat sich auf letzteren spezialisiert und spricht von „Charming Nanoparticles“, die durch zahlreiche nutzbare Eigenschaften glänzen. Via Superparamagnetismus etwa: In einen Tumor eingeschleuste Nanopartikel können dadurch dazu benutzt werden, Wärme via Magnetfeld zu erzeugen und so den Tumor zu zerstören. Superparamagnetismus bewirkt dabei, dass die Partikel nach dem Abschalten des Magnetfeldes nicht verklumpen. Ebenso können damit rasch und günstig HI- und Hepatitisviren nachgewiesen werden – Roche Diagnostics setzt diese Testkits bereits erfolgreich ein. Weitere Anwendungen eröffnen sich für die Nanopartikel durch mikrobizide Oberflächen – etwa durch Hygieneschichten auf Hörgeräten. Mennig rechnet dafür einen Marktwert von 40 Mio € vor. Bei einem Werkstoffeinsatz von nicht ganz 2 kg. Mikrobizide Eigenschaften sind auch ein heißes Thema bei Pharma-Verpackungen – hier sorgen geringe Silberkonzentrationen etwa an der Innenseite kleiner Plastikfläschchen für garantiert saubere Verhältnisse. Generell gebe es, so Mennig, im Hygienebereich noch eine Reihe ungelöster Probleme, sodass dieser „ein lohnendes Forschungsfeld“ abgebe. Photokatalytische Werkstoffe erzielen in Japan mittlerweile mehr als 1 Mrd $ Umsatz. Nano-Wissen meets Business

Nanopartikel für Filtermembrane

Am Institut für Verfahrenstechnik der Universität Linz wird an der Aufbringung von Nanopartikeln auf Membranen geforscht. Das Ergebnis könnte bald ein Nanofilter sein, der eine deutlich größere Oberfläche aufweist als herkömmliche Filter. <% image name="Unilinz" %><p> Nanopartikel und Membrane – diese Kombination könnte in naher Zukunft ein komplett neues Filtermaterial ergeben. Die Linzer Forscher bringen Nanopartikel auf Filtermembrane auf und stellen so Filter her, die eine weitaus höhere Oberfläche aufweisen und sogar katalytisch wirken können. Die eingesetzten Polystyrol-Partikel haben eine Größe von weniger als 100 Nanometer. „Die Forschung ist hier noch in der Anfangsphase“, präzisiert Projektmitarbeiter Harald Wutzel im Gespräch mit dem Chemie Report. „Wir experimentieren ständig mit neuen Anordnungen und Dosierungen. Ziel ist aber, hieraus einmal ein Filterprodukt herzustellen.“ Die Nano-Kügelchen, die auf den extrem dünnen Kunststoff-Membranen aufgetragen werden, erlauben eine Maßschneiderung auf den jeweiligen Filterzweck. „Wir fügen auch so genannte katalytische Gruppen ein – bei der Passage können so neue Verbindungen entstehen“, so Wutzel. Hierbei kommen verschiedenste funktionelle Moleküle zum Einsatz. <b>Pionierarbeit.</b> Mit der Forschungsarbeit wird Pionierarbeit geleistet, international gibt es kaum vergleichbare Projekte. „Ich kenne nur wenige Forschergruppen, die sich eines ähnlichen Themas annehmen – so forscht beispielsweise Dow Chemical in den USA an ähnlichen Filtern, dort werden aber größere Partikel verwendet.“ In der Praxis greift das Institut für Verfahrenstechnik unter der Leitung von Wolfgang Samhaber auf die Querstromfiltration zurück, bei der sich eine Schicht von Nanopartikeln auf den verwendeten Membranen aufbaut. „Im Labor erzielen wir vielversprechende Resultate. So wird etwa Natriumsulfat stärker gefiltert als bei der Verwendung der reinen Trägermembran“. Die persönliche Zielsetzung liege aber nicht nur in der reinen Filtration, sondern vor allem bei den chemischen Prozessen, die man dank der Nanopartikel während der Filtration durchführen kann. „Durch die Anbringung von katalytischen Gruppen kann man Trennprozesse viel selektiver gestalten“, so Wutzel. Zum Einsatz kommen hier derzeit vor allem Gelate, die sowohl Stoffe binden wie auch eine Reaktion erzeugen können. Ähnlich einem Baukastensystem könnten hier in Zukunft bestimmte Reaktionen bei der Filtration kontrolliert hervorgerufen werden. Wutzel, der ursprünglich aus dem Bereich der Polymerchemie kommt, will noch ein bis anderthalb Jahre im Zuge seiner Doktorarbeit an dieser Thematik forschen. „Danach würde ich mein Wissen gerne weitergeben, damit die Forschung an unserem Institut weiterlaufen kann.“ Bis dahin sind jedoch noch einige Hürden zu überwinden: Die derzeitige Forschung konzentriert sich noch darauf, herauszufinden, inwieweit die Nanofilter herkömmlichen Filtern überlegen sind. Nanopartikel für Filtermembrane

Die richtige Pille für jeden Patienten?

Die personalisierte Medizin als neuer Therapieansatz weckt eine große Erwartungshaltung – erste Produkte kommen aber nur zögerlich auf den Markt. Was die Pharmakogenetik zu leisten imstande ist. <% image name="Menschenstrom" %><p> <small> Verschiedene Menschen, verschiedene Gene: Die Pharmakogenetik erzielt erste Erfolge, Medikamente auf die Erbfaktoren abzustimmen. </small> Krankheiten gezielt behandeln, von Beginn an mit der richtigen Medikamenten-Dosis. Ohne Nebenwirkungen. Für jeden einzelnen Patienten feingetuned. So die Vision. Die Realität sieht aber anders aus. Denn kein Patient wird je individuell „sein“ Medikament verschrieben bekommen können. Überhaupt ist der Begriff „personalisierte Medizin“ irreführend – „maßgeschneidert“ sind die aktuellen Biotech- und Pharma-Ambitionen nämlich nur für bestimmte Patientengruppen, die sich nach charakteristischen Biomarkern im Erbgut einteilen lassen. Für die Pharmaindustrie hat die Suche nach Zusammenhängen zwischen der Wirksamkeit eines Wirkstoffs und den genetischen Eigenschaften von Patientengruppen den Anreiz, die Kosten während der Medikamentenentwicklung geringer zu halten. Denn maßgeschneiderte Medikamente könnten in klinischen Studien mit vergleichsweise wenigen Teilnehmern erprobt werden, die an den maßgeblichen Stellen im Erbgut genetisch homogen sind. <b>Erbfaktoren.</b> Bis dato hat die Forschung am menschlichen Erbgut durchaus große Fortschritte gemacht. Wir wissen heute wesentlich mehr über molekulare Ursachen und die Mechanismen bei der Entstehung und dem Ablauf von Erkrankungen. Es werden nicht nur laufend Gene identifiziert, die hier eine Rolle spielen. Man weiß auch, dass die Gene in unterschiedlicher Kopienzahl vorhanden sein können und dies einen Einfluss auf den Krankheitsverlauf haben kann. Die Gensequenz selbst ist vielfach schon aufgeklärt. Die Gene unterschiedlicher Menschen können sich in bestimmten Bausteinen unterscheiden. Diese genetischen Marker nennt man Single Nucleotide Polymorphisms (SNPs). Sie haben einen Einfluss darauf, ob, wie und in welcher Dosierung Medikamente wirken und ob Nebenwirkungen bei einer Behandlung auftreten. Was wäre für die Ärzte und vor allem für die Patienten schöner, als die richtige Dosierung von vornherein zu kennen und Nebenwirkungen ausschließen zu können? Auch aus gesundheitsökonomischen Gründen sind maßgeschneiderte Medikamente interessant: So verursachten Nebenwirkungen in den USA im Jahr 2000 Kosten über 177,4 Mrd $, größtenteils bedingt durch Krankenhauszuweisungen. Relevante SNPs zu identifizieren ist der Job der Pharmakogenetik. Sie nutzt die Technologien der Genomforschung sowohl für die Entwicklung neuer als auch für die Charakterisierung bereits auf dem Markt befindlicher Medikamente. Ihr Ziel ist es, Arzneimittel für spezifische Erkrankungen für Patientengruppen mit einem bestimmten Genotyp zu entwickeln. Relevante Polymorphismen können in Genen von Rezeptoren liegen, welche Wirkstoffe binden und für deren Transport sie zuständig sind. Weitere SNPs entscheiden über die Aktivierung und die Inaktivierung der Wirkstoffe. Wieder andere beeinflussen, wie schnell toxische Abbauprodukte bzw. Medikamente aus der Zelle ausgeschleust werden, noch bevor eine Wirkung eingetreten ist. Hoffnungsfeld Onkologie. Der Labormediziner Alexander Haushofer, Oberarzt am Institut für Laboratoriumsmedizin am Landesklinikum St. Pölten, führt diesen Prozess näher aus: „Bei rund 30 % aller Arzneimittel besorgt das Ausschleusen das P-Glykoprotein p-GP, eine unspezifische Pumpe mit breiter Substratspezifität, die das Genprodukt des „Multidrug Resistance“-Gens MDR-1 darstellt. Das MDR-Gen kommt in verschiedenen Varianten vor. Ein SNP im Exon 26 beeinflusst nun die Transporterfunktion: Die TT-Variante bildet wenig p-GP in der Darmwand. Liegt TT vor, wird die Wirkstoffkonzentration eines Arzneimittels im Blut relativ hoch sein. Das heißt, ein Patient mit TT-Variante braucht beispielsweise eine niedrige Dosierung seines Herzmedikaments Digoxin.“ Bei toxischen Substanzen wie den Chemotherapeutika lernt die Tumorzelle, sich zu schützen, indem sie mehr von diesen spezifischen Pumpen produziert. Dieser Ausschleusungsprozess wirkt sich bei der Tumortherapie oft fatal aus – es wirkt dann nämlich die Chemotherapie nicht mehr, Resistenz ist eingetreten. Die Chemotherapie ist auch durch das meist enge therapeutische Fenster limitiert. Wirksame und toxische Dosis liegen also eng bei einander. Haushofer ist davon überzeugt, dass die Pharmakogenetik in der Onkologie ein vielversprechender Ansatz ist: „Durch die prätherapeutische molekular-diagnostische Erfassung von beispielsweise einer Thiopurinmethyltransferase-Defizienz bei Therapie mit 6-Mercaptopurin, einer DPD-Defizienz oder MTHFR-Defizienz bei Therapie mit 5-Fluorouracil, kann die Dosierung des Medikamentes individuell angepasst und gravierende Nebenwirkungen verhindert werden.“ <b>Beispiel Brustkrebs.</b> Ein Beispiel, wo Pharmakogenetik in der Onkologie bereits erfolgreich eingesetzt wird, ist die Therapie mit Herceptin, einem Wirkstoff von Roche. Es handelt sich dabei um einen humanisierten monoklonalen Antikörper, der für die Behandlung von metastasierendem Brustkrebs zugelassen ist. Er blockiert die Funktion des HER-2 Proteins (Human Epidermal Growth Factor Receptor 2), das im Durchschnitt bei jeder dritten Brustkrebspatientin in vergleichsweise hohen Mengen gebildet wird. Betroffene Patientinnen sind für Rezidive anfälliger und überleben weniger lang krankheitsfrei als andere. Herceptin verbessert die Überlebensrate bei Frauen, die HER-2 überexprimieren – und das nur bei diesen. Voraussetzung für die Behandlung mit dem Medikament ist ein Gentest. Ein weiteres Feld, in dem die Pharmakogenetik zum Einsatz kommen könnte, ist die Familie der Cytochrom P450-Enzyme. Sie sind bei einer signifikanten Anzahl der derzeit verfügbaren Medikamente für fast alle heute beschriebenen Fälle von Arzneimittelnebenwirkungen verantwortlich. Ein gutes Beispiel ist das Cytochrom P450 2D6 (CYP2D6), das den Metabolismus von annähernd 20-25 % aller Medikamente beeinflusst, die gegenwärtig auf dem Markt sind. Fehlt dieses Enzym, so ist die Wirkung der schmerzstillenden Mittel Tramadol und Codein vermindert. Manche der trizyklischen Antidepressiva werden nicht so schnell abgebaut, was Nebenwirkungen wie Herzprobleme nach sich ziehen kann. Roche Diagnostics hat vor rund einem Jahr einen Chip auf den Markt gebracht, der Aussagen über den P450-Stoffwechsel zulässt, indem er mehr als 30 Mutationen, darunter Deletionen, Translokationen und SNPs erfasst. „Der Test wird noch vor Beginn der Medikation durchgeführt. Wenn man frühzeitig weiß, wie Patienten reagieren, kann man sie früher aus der Depression holen“, sieht Georg Kutalek, Leiter der molekularen Diagnostik bei Roche Diagnostics den Vorteil des Tests. Das leuchtet ein – allerdings sind die Anwendungen für den Chip laut Haushofer derzeit noch mehr in Richtung angewandter Forschung, Erfassung entsprechender klinischer Daten, als in klinischer Routinediagnostik zu sehen. Haushofer weist noch auf etwas anderes hin: „Bei allen Möglichkeiten, welche die Pharmakogenetik zu bieten scheint, darf man nicht die Möglichkeiten eines konventionellen modernen Drug Monitorings vergessen, das uns gute Hinweise für die richtige Dosierung von Medikamenten liefert, wenn es professionell durchgeführt wird.“ <b>Einschränkungen.</b> Tatsächlich ist der klinische Nutzen der Pharmakogenetik nicht bei allen Ansätzen so klar erkennbar wie in der Onkologie bei Herceptin oder der prätherapeutischen Erfassung von möglichen Nebenwirkungen von Chemotherapeutika. Welche Hürden es zu überwinden gibt, zeigt etwa die Aktivität eines interdisziplinären Arbeitskreises, der von namhaften Labormedizinern ins Leben gerufen wurde und von Manuela Födinger im AKH Wien geleitet wird. Der Arbeitskreis hat das Ziel, Leitlinien zu einer Reihe von Krankheitsbildern speziell für die Labormedizin zu entwickeln. Im Fokus stehen Evidenzanalysen, die zeigen sollen, welche SNPs jeweils eine klare Assoziation für bestimmte Risikokollektive aufweisen. Woran könnte es liegen, dass die Evidenz oft nicht ganz einfach zu erkennen ist? Meist hat der Arzt nicht „gesunde Kranke“ mit lediglich einer bestimmten genetischen Disposition vor sich. Neben den genetischen spielen auch Faktoren wie das Alter, die Ko-Morbidität und die Ko-Medikation eine nicht zu unterschätzende Rolle, wie Patienten auf eine Behandlung reagieren. Darüber hinaus liefert das Ergebnis eines Gentests in manchen Fällen auch falsch-positive Befunde. Nüchtern betrachtet ergänzt die Pharmakogenetik also weitere medizinische Informationen und erhöht so die Wahrscheinlichkeit, dass der Arzt die richtigen Entscheidungen trifft. Der klinische Nutzen ist in vielen Fällen noch unsicher. „Ob Pharmakogenetik im einzelnen Fall dem Patienten etwas bringt, lässt sich nur mit großen randomisierten, prospektiven Studien beantworten, die es noch nicht gibt“, ist man sich einig. Doch bei allen Einschränkungen ist Haushofer überzeugt: „Die Pharmakogenetik ist ein wirklich hoffnungsvoller Weg.“ Die richtige Pille für jeden Patienten?

Seiten