Home » Glossare » Basiswissen » Basiswissen A-F

Basiswissen A-F

Basiswissen Biologie, Chemie, Physik A-F

Bionik

aus Wikipedia, der freien Enzyklopädie

Die Bionik (auch: Biomimikry, Biomimetik, Biomimese) beschäftigt sich mit der Entschlüsselung von „Erfindungen der belebten Natur“ und ihrer innovativen Umsetzung in der Technik. Die Bionik ist ein interdisziplinärer Bereich, in dem Naturwissenschaftler und Ingenieure sowie bei Bedarf auch Vertreter anderer Disziplinen wie etwa Architekten, Philosophen und Designer zusammenarbeiten.

Der englische Begriff bionics wurde vom amerikanischen Luftwaffenmajor Jack E. Steele 1960 auf einer Konferenz in der Wright-Patterson Air Force Base in Dayton, Ohio, geprägt. Das deutsche Kofferwort Bionik setzt sich aus Biologie und Technik zusammen und bringt damit zum Ausdruck, wie für technische Anwendungen Prinzipien verwendet werden können, die aus der Biologie abgeleitet werden. Die Bionik ist systematisches Lernen von der Natur und steht damit in Abgrenzung zur reinen Naturinspiration.

Die „Gegenrichtung“ zur Bionik, also die Unterstützung der Biologie durch andere (technische) Wissenschaftsbereiche, wird Bio-… genannt (Bioinformatik, Biophysik, (teilw.) Biochemie, …).

Details

Im englischen Sprachraum beschränkt sich die Bedeutung von „bionic“ zumeist auf die Konstruktion von Körperteilen oder – allgemeiner – einer Kombination von Biologie und Elektronik (auch im Zusammenhang mit der Idee des Cyborgs). Das, was im deutschen Sprachraum mit Bionik bezeichnet wird, entspricht im Englischen oft dem Begriff biomimetics oder manchmal auch biomimicry. Da viele Autoren sich der sprachlichen Problematik bewusst sind, werden mittlerweile die beiden Begriffe Bionik und Biomimetik meist als Synonyme verwendet.

In der Bionik werden für technische Probleme gezielt Lösungen in der Biologie gesucht (Bionik als top-down-Prozess, Analogie-Bionik). Alternativ werden Prinzipien von biologischen Modellsystemen produktunabhängig abstrahiert (vom biologischen Vorbild losgelöst), die dann als Ideenvorlage für vorher nicht festgelegte technische Problemlösungen dienen können (Bionik als bottom-up-Prozess, Abstraktions-Bionik). Nachdem diese neuen Prinzipien in der Technik etabliert sind, können die Anwendungen in jedem geeigneten Bereich stattfinden. Diese Herangehensweisen werden auch dadurch begründet, dass im Laufe der Evolution viele biologische Lösungen optimiert wurden.

Als historischer Begründer der Bionik wird häufig Leonardo da Vinci angeführt, der beispielsweise in seinem Manuskript Über den Vogelflug den Vogelflug analysierte und versuchte, seine Erkenntnisse auf Flugmaschinen zu übertragen. Das erste deutsche Patent im Bereich Bionik wurde 1920 Raoul Heinrich Francé für einen „Neuen Streuer“ nach dem Vorbild einer Mohnkapsel erteilt (Dt. Patentamt, Nr. 723730). Kurz darauf entstand eine weitere nützliche Erfindung nach dem Vorbild der Kletten. Das Prinzip wurde von dem Schweizer Wissenschaftler George de Mestral entdeckt. Er nutzte die Eigenschaft der Klettfrucht, um den Klettverschluss zu erfinden. Allerdings hat sich die Bionik erst in den letzten Jahrzehnten insbesondere aufgrund neuer und verbesserter Methoden (Rechnerleistung, Produktionsprozesse) zu einer etablierten Wissenschaftsdisziplin entwickelt.

Bei der Entwicklung technischer Funktionselemente waren parallele Entwicklungen in der Natur nicht immer bekannt. So wurde das Fachwerk ohne Kenntnis der Feinstruktur der Knochenbälkchen entwickelt. Da keinerlei Übertragung stattfand, spricht man bei solchen formellen oder funktionellen Übereinstimmungen von Entsprechungen und nicht von Bionik.

Biomimetik oder Bionik als Wissenschaftsdisziplin sucht dagegen gezielt nach Strukturen in der Natur, die technisch als Vorbilder von Bedeutung sein können.
Diese Vorgehensweise kann häufig als reine Analogiensuche bezeichnet werden. Sie erlaubt allerdings meist nur kleinere Innovationssprünge, da die technische Anwendung bereits erkennbar sein muss.

Computerrendering des Lotus-Effektes

Alternativ können durch biologische Grundlagenforschung bestimmte Struktur- oder Organisationsprinzipien beschrieben werden, die erst danach als geeignet für eine Übertragung in die Technik erkannt werden. So werden etwa anhand der Untersuchung des Knochenaufbaus neue Fachwerkskonstruktionen entwickelt. Auch führten die Erkenntnisse über die Unbenetzbarkeit und Selbstreinigung bestimmter pflanzlicher Oberflächen erst später zur Entwicklung so unterschiedlicher industrieller Produkte wie Fassadenfarbe, Dachziegel und Markisen mit dem so genannten Lotus-Effekt.

Das Bionic Learning Network ist ein Forschungsverbund des Unternehmens Festo mit Hochschulen, Instituten und Entwicklungsfirmen. Ziel der Initiative ist, durch die Anwendung der Bionik neuartige Technologieträger hervorzubringen.

Als Meilenstein der Bionik gilt Ingo Rechenbergs Vortrag auf der gemeinsamen Jahrestagung der WGLR und DGRR im September 1964 in der Berliner Kongresshalle mit dem Titel: „Kybernetische Lösungsansteuerung einer experimentellen Forschungsaufgabe“. Hier führte er das mittlerweile berühmt gewordene Darwin-im-Windkanal-Experiment vor, in dem eine zur Zickzackform gefaltete Gelenkplatte sich evolutionär zur ebenen Form geringsten Widerstands entwickelt.

Teilgebiete

Die Bionik kann in verschiedene Teilgebiete unterteilt werden:

  • Konstruktionsbionik
  • Sensorbionik
  • Strukturbionik
  • Bewegungsbionik
  • Neurobionik
  • Baubionik
  • Gerätebionik
  • Verfahrensbionik
  • Klimabionik
  • Anthropobionik
  • Evolutionsbionik

Vorgehensweisen

 

Bionik als „top-down-Prozess“ (Analogie-Bionik)

  1. Definition des Problems
  2. Suche nach Analogien in der Natur
  3. Analyse der Analogien in der Natur
  4. Suche nach Lösungen für das Problem mit den gewonnenen Erkenntnissen aus der Natur

 

  • Flugzeug: Otto Lilienthal und die Gebrüder Wright beobachteten den Flug (Lokomotion) großer Vögel, und optimierten damit ihre Prototypen.
  • Fallschirm: Frucht des Wiesenbocksbarts
  • Winglets an Flugzeugflügeln: Hoher Treibstoffverbrauch durch große Wirbel an den Flügelspitzen von Flugzeugen. Untersuchung von Flügeln segelnder/gleitender Vögel als Flugzeug-Analogie. Beschreibung der Handschwingen von bestimmten Vogelarten (etwa Bussard, Kondor und Adler), die statt eines großen Wirbels mehrere kleinere verursachen und damit insgesamt weniger Energie verbrauchen. Herstellung künstlicher Flügel mit mehreren Wirbelablösestrukturen (Winglets). Die Weiterentwicklung führte zu einem Schleifenprofil am Flügelende (split-wing loop), der etwa zur selben Zeit parallel nicht-bionisch von einer Flugzeug-Entwicklungsfirma entwickelt wurde (Spiroid). Dieses Beispiel zeigt, dass am Ende einer Optimierung deren bionische Herleitung nicht immer sichtbar sein muss.
  • Entwicklung neuartiger Profile von Autoreifen: Biologisches Vorbild waren etwa Katzenpfoten, die sich bei Richtungswechsel verbreitern und so mehr Kontaktfläche zum Untergrund haben.
  • Spinnenartige Roboter, deren Beine autonome Steuerungsfunktionen haben und die dadurch zentral gesteuerten Robotern überlegen sind.

Bionik als „bottom-up-Prozess“ (Abstraktions-Bionik)

  1. Biologische Grundlagenforschung: Biomechanik und Funktionsmorpholgie von biologischen Systemen
  2. Erkennen und Beschreiben eines zu Grunde liegenden Prinzips
  3. Abstraktion dieses Prinzips (Loslösung vom biologischen Vorbild und Übersetzung in nicht-fachspezifische Sprache)
  4. Suche nach möglichen technischen Anwendungen
  5. Entwicklung technischer Anwendungen in Kooperation mit Ingenieuren, Technikern, Designern usw.

Beispiele

  • Unbenetzbarkeit und Selbstreinigung bestimmter biologischer Oberflächen: Die Beobachtung und nähere Untersuchung der Tatsache, dass von einem Blatt der Lotuspflanze praktisch alle wasserlöslichen Substanzen abperlen, führte zu Patenten für extrem schlecht benetzbare und selbstreinigende Oberflächenstrukturen (etwa für eine neue künstliche Oberfläche als Fassadenfarbe), dem Lotuseffekt. Siehe auch: Wachse auf Pflanzenblättern, beispielsweise von der Lotusblume, Kohlrabi usw.
  • Strukturoptimierung von Bauteilen (CAO und SKO): Wuchsformen von Bäumen oder Knochen
  • Riblet-Folien: Bei schnell schwimmenden Haien besteht die Hautoberfläche aus kleinen, dicht aneinander liegenden Schuppen. Auf diesen Schuppen befinden sich scharfkantige feine Rillen, die parallel zur Strömung ausgerichtet sind. Diese mikroskopisch kleinen Rillen bewirken eine Verminderung des Reibungswiderstands. Dieser widerstandsvermindernde Effekt ist in allen turbulenten Strömungen, also auch in Luft wirksam. Flugzeuge können mit einer speziellen Folie beklebt werden (so genannte Riblet-Folie), die auf ihrer Oberseite über eine ähnliche Struktur verfügt und so den Luftwiderstand des Flugzeugs senkt. Die wissenschaftliche Grundlage entstammt Untersuchungen an fossilen Haien und deren „Schuppen“.
  • Der Klettverschluss wurde nach dem Vorbild der Klettfrüchte entwickelt (George de Mestral, 1956).
  • Schwarmintelligenz und Ameisenalgorithmus übertragen Verhaltensweisen von Insekten und anderen, in Gemeinschaft oder größeren Gruppen lebenden Tieren in technische Bereiche.

Entsprechungen von technischen Entwicklungen und Natur

 

 

Regentropfen als Vorbild für die Lupe

 

Biophoton

aus Wikipedia, der freien Enzyklopädie

In der Biophysik und Alternativmedizin wird von wenigen Autoren der Begriff „Biophotonen“ (gr. ß??? Leben, gr. f?? Licht) für diejenigen Lichtquanten verwendet, die ein Teil der ultraschwachen Photonenemission (UPE) biologischer Herkunft sind. Die hier gemeinte Strahlung unterscheidet sich von der Biolumineszenz durch ihre um mehrere Größenordnungen geringere Intensität und durch ihre sehr geringe Quantenausbeute.

Geschichte

In den 20er Jahren des 20. Jahrhunderts gelangte der russische Biologe Alexander Gurwitsch nach Experimenten mit keimenden Zwiebeln zu der Auffassung, dass lebende Zellen eine sehr schwache Lichtstrahlung abgeben. Er nannte sie „mitogenetische Strahlung“, und zwar aufgrund seiner Vermutung, dass diese Strahlung die Zellteilung (Mitose) auslösen könne. Wegen der aufkommenden Biochemie, die Zellprozesse als Folgen von biochemischen Signalketten beschreibt, wurde diese Vermutung nicht weiter untersucht.

Verschiedene experimentelle Hinweise auf eine ultraschwache Photonenemission von biologischen Systemen blieben in der Folgezeit weitgehend unbeachtet. Die Quelle dieser „dunklen Lumineszenz“ wurde, soweit man die Existenz überhaupt anerkannte, auf spontane Unvollkommenheiten des Zellstoffwechsels (z. B. Oxidations– und Radikalreaktionen) zurückgeführt. Eine biologische Bedeutung wurde bezweifelt. Hauptwidersacher von Gurwitschs Thesen war der Biochemiker Alexander Holländer. Er und andere Wissenschaftler waren der Meinung, dass die Entdeckung solange zweifelhaft bliebe, bis die Strahlung objektiv gemessen sei.

1954 gelang es den italienischen Astronomen L. Colli, U. Facchini u. a., die Lichtemission von Pflanzenzellen direkt zu messen, indem sie einen Photonenverstärker verwendeten, den sie zur Beobachtung weit entfernter Sterne gebaut hatten. Als sie diesen auf Blätter, Weizen-, Mais– und Bohnenkeime richteten, entdeckten sie eine schwache, ungefähr konstante Emission von Photonen. Spätestens mit den Messungen von Terence Quickenden 1967 an der Universität von West-Australien gilt die schwache spontane Lichtaussendung von Zellen als etablierter Fakt.[1] In der Folgezeit wurde von einzelnen Wissenschaftlern die Hypothese aufgestellt, dass Körperzellen über ihre elektromagnetische Strahlung untereinander Signale austauschen – ohne Umweg über chemische Botenstoffe.

In den 70er-Jahren wiesen mehrere Wissenschaftler erneut Photonenstrahlung aus biologischem Gewebe nach, unter anderem der deutsche Physiker Fritz-Albert Popp, der zunächst an der Universität Marburg arbeitete, bald aber die Forschungsvereinigung International Institute of Biophysics (IIB) e.V. für seine Forschungen gründete. Um eine Verwechslung mit der z. B. von Leuchtkäfern bekannten und offen sichtbaren Biolumineszenz auszuschließen, nannte er die ultraschwache biologische Strahlung „Emission von Biophotonen“. Popp vermaß das Spektrum dieser Strahlung und fand Wellenlängen zwischen 200 und 800 nm mit einer kontinuierlichen Verteilung, also ungefähr im Bereich des sichtbaren Lichts (380 bis 710 nm). Allerdings betrugen die gemessenen Intensitäten nur wenige bis einige hundert Quanten pro Sekunde und pro Quadratzentimeter Oberfläche. Popp vermutete, dass diese schwache Strahlung trotzdem, wie bei Laserlicht, kohärent ist. Wegen der extrem geringen Wahrscheinlichkeit einer Photonenemission pro Zelle, nämlich typischerweise weniger als ein Photon pro Monat, vergehen durchschnittlich mehr als 100 Jahre bis zur erneuten Emission eines Photons gleicher Wellenlänge, wodurch der direkte Nachweis der Kohärenz mittels Wellenüberlagerung unmöglich ist.

Zur Hypothese der Kohärenz liegen bislang theoretische und experimentelle Studien vor.[2][3][4] Die in diesen Artikeln vorgestellten Theorien und Messungen liefern nach Ansicht der meisten Wissenschaftler keinerlei schlüssige Hinweise oder gar Beweise für eine tatsächliche Kohärenz der ausgesandten Strahlung, was der Forschungsgruppe um Popp viel Kritik einbrachte.

Zusammen mit einer Gruppe von Wissenschaftlern, unter anderem aus ausländischen staatlichen Universitäten und Forschungsinstituten, erforschen heute Popp und Kollegen im Internationalen Institut für Biophysik (IIB) e.V. bei Neuss nicht nur die Eigenschaften der Strahlung, sondern gehen unter Einschluss der äußeren Anregung mit Lasern und anderen Lichtquellen der so genannten „verzögerten Lumineszenz“, („delayed luminescence“) und damit verbundenen verschiedenen Anwendungsmöglichkeiten nach. Unter diesen Wissenschaftlern befindet sich Lew Beloussow, ein Enkel Alexander Gurwitschs, der an der Moskauer Staatsuniversität einen Lehrstuhl für Embryologie hat.

Allgemein bildet die Untersuchung schwacher, von Lebewesen oder biologischem Material ausgesandter elektromagnetischer Strahlung einen Teilbereich der Biophotonik. Dieser Begriff beschreibt im heutigen Sprachgebrauch ganz allgemein die Verbindung von Biologie und Photonik, also unter anderem alle Arten von medizinischen Untersuchungs- und Heilungsmethoden und Bildgebungsverfahren auf optischer Basis.

Interpretation

Alle Objekte, ob biologisch oder nicht, emittieren Wärmestrahlung, abhängig von ihrer Temperatur. Diese Strahlung wurde bei den oben erwähnten Messungen berücksichtigt und subtrahiert. Da die betrachteten Zellen keine speziellen Leuchtstoffe (Luciferine o. Ä.) beinhalten, gehört die untersuchte Strahlung nicht zur klassischen Biolumineszenz, die ein Vielfaches intensiver als die gemessene „Biophotonenstrahlung“ ist.

Die schwache, über die Schwarzkörperstrahlung hinausgehende Emission (deren Intensität in etwa der einer Kerze auf 20 km Entfernung gleichkommt) wird möglicherweise vom Zustand der Zellen mitbestimmt. Nach vorherrschender Meinung beruht die Strahlung auf den bekannten chemischen Reaktionen im Rahmen des Stoffwechsels, z. B. dem Verbrennen von Nährstoffen, und der dabei entstehenden Prozesswärme. Gegenstand der kontroversen Diskussion ist, ob Lichtquanten in Zellen stehende Wellen ausbilden können, die in Wechselwirkung mit den Zellorganellen treten, um Stoffwechselfunktionen zu beeinflussen. Kritiker bezeichnen Photonen als Elementarteilchen, die keine unterschiedlichen spezifischen biologischen Funktionen erfüllen können. Letzteres erscheint Befürwortern der Theorie von Biophotonen eher unwahrscheinlich, weil Licht großen Einfluss auf den Stoffwechsel von Zellen hat, insbesondere bei Chlorophyll-haltigen Pflanzen. Die Frage nach der Ursache und Wirkungsweise der Regulations- und Kommunikationsvorgänge in den Zellen gilt als noch nicht ausreichend geklärt.

Anwendung

Die Gruppe von Popp arbeitet an Verfahren für die Anwendung ihrer Lehre in der Qualitätsanalyse von Lebensmitteln, bei der Beobachtung von Umwelteinflüssen, in der Bio-Indikation, in der Analyse von Unterschieden in Geweben (zum Beispiel zwischen gesunden und Tumorgeweben), in den Bemühungen um ein tieferes Verständnis von Krankheiten. Die Gruppe versteht ihre Tätigkeit als ganzheitlichen Ansatz zur Erklärung biologischer Phänomene lebender Systeme, insbesondere der Kommunikations- und Regulationsvorgänge in Zellen und Zellpopulationen – wie Wachstum und Differenzierung, einschließlich physikalischer Fragen zum Verständnis des Bewusstseins. An der Universität Catania arbeitet man gerade daran neue Technologien zu entwickeln, die Delayed Luminescence Messungen zur Hautkrebsdiagnostik einsetzbar machen sollen. Bei in-vitro-Versuchen gelang die Unterscheidung zwischen Fibroblasten und Melanomzellen mit 99,9% Signifikanz mittels geeigneter mathematischer Analyse des zeitlichen Verlaufs des spektral aufgelösten Meßsignals.

Kritik

Die Ansicht der Vertreter der Theorie, dass diesem Phänomen eine physiologische Bedeutung zukommt, hat bei Biologen und Physiologen bisher kaum Zustimmung gefunden, wohl aber in der Esoterik und in Teilen der Alternativmedizin.

Physikalisch kann die Strahlung mittels hochempfindlicher Photonendetektoren nachgewiesen werden. Da diese Messung jeweils nur die abgestrahlten Photonen erfassen kann, ist der Rückschluss auf die in den Zellen herrschenden Strahlungsverhältnisse nicht direkt möglich. Kritiker dieser Theorie weisen darauf hin, dass insbesondere die postulierte Kohärenz der Photonen nicht nachweisbar sei.

In den Hypothesen über „Biophotonen“ sehen Kritiker den Versuch einer Wiederbelebung des Vitalismus, eines Konzepts, das in Biologie und Medizin im Laufe des 19. Jahrhunderts aufgegeben worden war. Statt der immateriellen Lebenskräfte des herkömmlichen Vitalismus werde nun ein pseudowissenschaftlicher Neovitalismus propagiert.

Dies erklärt zum einen die Distanz der etablierten biologischen und medizinischen Wissenschaft zu Forschungen über Biophotonen, zum anderen aber auch das große Interesse bei einigen Vertretern der Alternativmedizin.

 

Chaos

aus Wikipedia, der freien Enzyklopädie

Das Chaos (griechisch cháos) ist ein Zustand vollständiger Unordnung oder Verwirrung und damit der Gegenbegriff zu Kosmos, dem griechischen Begriff für Ordnung.

Begriffsgeschichte

Etymologisch hängt das Wort mit dem griechischen Verb  („klaffen, gähnen“) zusammen, bedeutet also ursprünglich etwa „klaffender Raum“, „gähnende Leere“, „Kluft“. Das Wort  wird ebenso wie deutsch gähnen auf eine vermutete Wortwurzel der Indogermanischen Ursprache *ghen- zurückgeführt. Chaos heißt auch eine tiefe Bergschlucht auf der Peloponnes, vergleichbar der Ur-Schlucht Ginnungagap der nordischen Mythologie.

In der Theogonie des griechischen Dichters Hesiod (ca. 700 v. Chr.) ist das Chaos der Urzustand der Welt: „Wahrlich, zuerst entstand das Chaos und später die Erde…“ (Vers 116). Das Chaos besitzt in diesem kosmogonischen Mythos Ähnlichkeit mit dem Nichts und der Leere. Kinder oder Abkömmlinge des Chaos bei Hesiod sind Gaia (die Göttin der Erde), Nyx (die Göttin der Finsternis der Nacht), Erebos (der Gott der Finsternis in der Unterwelt), Tartaros (die Unterwelt, Ort und Person zugleich) und Eros (der Gott der Liebe). Alle fünf Götter sind zeitgleich aus dem Chaos entstanden.

In der ersten Schöpfungsgeschichte der Bibel (Genesis 1,1-5) können die Worte „wüst und leer“ auch als ein anderer Ausdruck für Chaos gedeutet werden.

Seit dem 17. Jahrhundert bezeichnet Chaos in der Alltagssprache die Unordnung, das Gewirr, das Durcheinander (etwa eines unaufgeräumten Zimmers).

Weitere Bedeutungen

 

Dissipation

aus Wikipedia, der freien Enzyklopädie

Dissipation (lat. für „Zerstreuung“) bezeichnet in der Physik den Vorgang in einem dynamischen System, bei dem z. B. durch Reibung die Energie einer makroskopisch gerichteten Bewegung, die in andere Energieformen umwandelbar ist, in thermische Energie übergeht, d. h. in Energie einer ungeordneten Bewegung der Moleküle, die dann nur noch teilweise umwandelbar ist. Ein solches System heißt dissipativ. Dieser Begriff kommt in den physikalischen Gebieten der Thermodynamik und der Akustik oder allgemein in der Wellenlehre vor. Ein Beispiel für ein dissipatives System ist die gedämpfte Schwingung.

In der Thermodynamik werden die Arbeiten, die auf Grund von Reibungs-, Drosselungs- oder Stoßvorgängen in thermische Energie (innere Energie) umgewandelt werden, als Dissipationsarbeiten bezeichnet. Es handelt sich dabei um irreversible Vorgänge, bei denen die Entropie zunimmt, anders ausgedrückt: Exergie wird in Anergie umgewandelt (vgl. Zweiter Hauptsatz der Thermodynamik). Diese Arbeiten sind Prozessgrößen, d. h. wegabhängig.

Die sogenannte Dissipationskonstante für einen Heißleiter (Heißleiter, Negative Temperature Coefficient, NTC) ist der Wärmeleitwert, spezifiziert in der Regel für stehende Luft. Bei Kontakt mit Wasser ändert sich die Dissipationskonstante.

In der Werkstofftechnik versteht man im Zusammenhang mit dem Werkstoffkreislauf unter Dissipation den Verbrauch von Rohstoffen – also nicht auszugleichende Verluste, z. B. Korrosion, Abrieb und sonstigen Verlust in breitgestreuter Verteilung über die ganze Erdoberfläche, so dass der Rohstoff nicht zurückgewonnen werden kann.

Dissipation in der Thermodynamik

Dissipative Vorgänge im geschlossenen System

Zum Beispiel wird durch Reibung zwischen den Kolbenringen und den Zylinderwänden eines Verbrennungsmotors ein Teil der bereits aus Wärmeenergie erzeugten Arbeit in innere Energie zurückverwandelt, so dass die nach außen übertragene Arbeit dadurch geringer wird.

Das Bild veranschaulicht verschiedene dissipative Vorgänge in einem geschlossenen adiabaten System:

Die Arbeit eines Ventilators leistet wegen der starren Systemgrenze keine Volumenänderungsarbeit, wird daher vollständig dissipiert, ebenso die elektrische über Systemgrenze übertragene Arbeit.

Bei einem Temperaturausgleichsprozess innerhalb des Systems könnte über einen Carnot-Prozess reversibel Arbeit erzeugt und nach außen abgegeben werden. Da die Wärme ungenutzt von „warm“ nach „kalt“ fließt, wird ihr exergetischer Anteil dissipiert.

Statt des Drosselprozesses könnte über einen beweglichen Kolben (mit Kraftübertragung nach außen) der Druckausgleich reversibel erfolgen, oder hinter der Düse könnte ein Windrad Arbeit leisten. Auch diese Möglichkeit bleibt ungenutzt, die Arbeit wird dissipiert.

 

Dissipative Struktur

aus Wikipedia, der freien Enzyklopädie

Unter einer Dissipativen Struktur (engl. dissipative structure) versteht man ganz allgemein eine stabile geordnete Struktur, die in einem offenen energieumsetzenden nichtlinearen System oder einem Teil eines solchen Systems unter ständiger Energiezufuhr und Energieabgabe, also innerhalb eines ständigen Energiestroms, gebildet und aufrechterhalten werden kann. Diese selbständige Strukturbildung in gleichgewichtsfernen Systemen wird auch als eine „Selbstorganisation“ beschrieben.

In einem abgeschlossenen System, das sich in einem statischen thermodynamischen Gleichgewicht befindet, können keine Dissipativen Strukturen auftreten. Auch in einem gleichgewichtsnahen linearen System treten keine Dissipativen Strukturen auf. Dissipative Strukturen treten nur unter Bedingungen auf, die als gleichgewichtsferne nichtlineare Nichtgleichgewichtsthermodynamik beschrieben werden. Sie befinden sich meist in einem dynamischen Gleichgewicht von zufließender und abfließender Energie. Dissipative Strukturen können durch innere Umsetzungsprozesse einen Teil der durchfließenden Energie speichern und einen Teil des Energieflusses verzögern. Insbesondere Kombinationen nichtlinearer Prozesse mit einer Energieumsetzung in mehreren Stufen bieten ein hohes Potential zur Ausbildung komplexer dissipativer Strukturen. Die Ausprägung dieser geordneten Strukturen hängt entscheidend von den Systemparametern ab. Der Übergang vom ungeordneten zum geordneten Zustand erfolgt sprunghaft. Eine Dissipative Struktur zeigt Stabilität gegenüber kleinen Störungen.

Geschichte

Der Begriff Dissipative Struktur wurde 1967 vom Physikochemiker Ilya Prigogine vorgeschlagen,[1][2] der ab den 1940er Jahren an der Entwicklung der Theorie der Nichtgleichgewichtsthermodynamik beteiligt war und 1977 den Nobelpreis für Chemie erhielt.[3] Prigogine erkannte, dass sich fast alle Untersuchungen der klassischen statistischen Mechanik auf geschlossene Systeme im thermodynamischen Gleichgewicht bezogen, und begann, offene Systeme, die einem ständigen Energiefluss unterliegen, sich also nicht im thermodynamischen Gleichgewicht befinden, zu studieren. Er fand heraus, dass in offenen Systemen, speziell den von ihm untersuchten chemischen Systemen, durch einen Stoff-, Temperatur- oder sonstigen Gradienten, Selbstorganisation durch Dissipative Strukturen auftreten kann.

Bereits ab 1950 hat Alan Turing an einer neuen mathematischen Theorie der Morphogenese gearbeitet, welche die Auswirkungen nichtlinearer chemischer Reaktions- und Diffusionsfunktionen auf spontane Strukturbildungen zeigt.[4] Die Ergebnisse dieser Arbeit hat er 1952 unter dem Titel The chemical basis of morphogenesis veröffentlicht.[5][6] Diese Arbeit wird als wegweisend für die spätere Entdeckung Dissipativer Strukturen angesehen.[7]

Thermodynamische Beschreibung

Beim Aufbau geordneter Strukturen nimmt die Entropie lokal ab, was nur in offenen Systemen möglich (bzw. wahrscheinlich) ist. Die Änderung der Entropie in einem Zeitintervall

teilt sich in einen inneren () und äußeren (, Austausch mit der Umgebung) Anteil auf. In abgeschlossenen Systemen findet kein Austausch statt (dS = dSi) und nach dem zweiten Hauptsatz ist immer (gleich Null im Gleichgewicht), also . In offenen Systemen dagegen kann Entropie mit der Umgebung ausgetauscht werden, und es können geordnete stationäre (in der Zeit konstante) Strukturen entstehen, vorausgesetzt (es gilt dS = 0 bei einem stationären Zustand; nach dem zweiten Hauptsatz gilt hier ebenso negativer Entropie-Fluss).

Beispiele

Beispiele für Dissipative Strukturen sind die Ausbildung von wabenförmigen Zellstrukturen in einer von unten erhitzten Flüssigkeit (Bénard-Effekt) oder an Phasengrenzen bei Strömungsvorgängen, Fließgleichgewichte in der Biochemie, Hurrikane, chemische Uhren und Kerzenflammen. Dissipative Strukturen besitzen viele Gemeinsamkeiten mit biologischen Organismen, weshalb Lebewesen auch meist zu diesen gezählt werden.

Die Erdoberfläche inklusive der Atmosphäre bildet ein gleichgewichtsfernes energieumsetzendes (dissipatives) System, das durch die Sonneneinstrahlung Energie aufnimmt und durch Wärmeabstrahlung in dem Weltraum abgibt. Innerhalb dieses Systems kann sich eine Vielzahl Dissipativer Strukturen bilden, wie zum Beispiel Wolken, Flüsse oder Wirbelstürme.

 

Enthalpie

aus Wikipedia, der freien Enzyklopädie

Wechseln zu: Navigation, Suche

Die Enthalpie (von altgriechisch  thálpein ‚erwärmen‘, ‚erhitzen‘)[1], auch Wärmeinhalt genannt, ist ein Maß für die Energie eines thermodynamischen Systems. Sie wird in der Regel durch den Buchstaben H (Einheit: Joule, J) symbolisiert, wobei das H vom englischen heat content abgeleitet ist. In der Chemie und Technik spielen außerdem die molare Enthalpie Hm (Einheit: J/mol) und die spezifische Enthalpie h (Einheit: J/kg) eine wichtige Rolle. Sie beschreiben die Enthalpie in Bezug auf die Stoffmenge n bzw. die Masse m.

Die Enthalpie ist die Legendre-Transformierte der inneren Energie bezüglich des Volumens. Sie ist das thermodynamische Potential im SpN-Ensemble.

Allgemein

 

Die Enthalpie setzt sich additiv aus zwei Teilen zusammen, der inneren Energie U und der Volumenarbeit pV:

H = U + pV,

Die innere Energie besteht aus der thermischen Energie – beruhend auf der ungerichteten Bewegung der Moleküle (Kinetische Energie, Rotationsenergie, Schwingungsenergie) – der chemischen Bindungsenergie und der Potentiellen Energie der Atomkerne. Hinzu kommen Wechselwirkungen mit elektrischen und magnetischen Dipolen. Sie nimmt ungefähr proportional zur Temperatur des Systems zu und ist am absoluten Nullpunkt gleich der Nullpunktenergie. Die Volumenarbeit ist in diesem Fall anschaulich die Arbeit, die gegen den Druck p verrichtet werden muss, um das Volumen V zu erzeugen, das vom System im betrachteten Zustand eingenommen wird (?V = V).

Differenziell ausgedrückt wird aus H = U + pV

.(Man beachte den Unterschied zwischen „steil“ und kursiv gedruckten Differentialen, d versus d: erstere sollen für Zustandsgrößen vorbehalten bleiben.)

Standardbildungsenthalpie

Die Standardbildungsenthalpie ist die Energie, die bei der Bildung von einem Mol einer Substanz aus der allotropisch stabilsten Form der reinen Elemente unter Standardbedingungen (101,3 kPa und 25 °C) frei wird (exotherme Reaktion, negatives Vorzeichen) oder zur Bildung erforderlich ist (endotherme Reaktion, positives Vorzeichen). Sie wird in Kilojoule pro Mol angegeben und symbolisch mit bezeichnet (f von engl. formation, Bildung; der Exponent Null steht für Standardbedingungen).

Ist sie negativ, so wird bei der Bildung der Substanz aus den Elementen Energie frei, ist sie dagegen positiv, so muss Energie zur Bildung der Substanz aus ihren Ausgangselementen aufgewendet werden. Stark negative Werte der Standardbildungsenthalpie sind ein Kennzeichen chemisch besonders stabiler Verbindungen (d. h. bei ihrer Bildung wird viel Energie frei und zur Zerstörung der Bindungen muss auch wieder viel Energie aufgewendet werden). Die Standardbildungsenthalpie der chemischen Elemente in ihrem stabilsten Zustand (H2, He, Li, …) ist per Definition auf 0 kJ/mol festgesetzt.

Eine wichtige Anwendung der Standardbildungsenthalpien ist, dass sich damit Reaktionsenthalpien durch den Satz von Hess berechnen lassen: So ist die Reaktionsenthalpie einer gegebenen Reaktion unter Standardbedingungen die Differenz zwischen den Standardbildungsenthalpien der Reaktionsprodukte (“Produkte”) einerseits und der Ausgangsstoffe (Reaktanden; “Edukte”) andererseits. Symbolisch lässt sich dies durch die folgende Formel wiedergeben:

Dies ist gleichbedeutend mit der Aussage, dass die Bildungsenthalpie eines Stoffes unter Normalbedingungen nur vom Stoff selbst, und nicht von dem Weg seiner Herstellung abhängt. Die Bildungsenthalpie ist also eine thermodynamische Zustandsgröße. Alle Werte beziehen sich auf das thermodynamische Gleichgewicht, da sonst die Temperatur nicht definiert wäre.

Die Standardbildungsenthalpie kann indirekt, unter zur Hilfenahme des Satzes von Hess, aus Enthalpien von Reaktionen bestimmt werden bei denen der jeweilige Stoff als Edukt oder Produkt teilnimmt. Wenn keine experimentellen Daten vorliegen kann eine Abschätzung der Standardbildungsenthalpien auch mit Gruppenbeitragsmethoden abgeschätzt werden. Hierfür eignet sich besonders die Gruppenbeitragsmethode nach Benson.

Physikalische Bedeutung der Enthalpie (Thermodynamik)

Die Thermodynamik beschreibt im engeren Sinne nur die intermolekularen Kräfte, also die energetischen Beziehungen (Phasenzustände bzw. deren Änderungen) zwischen den einzelnen Molekülen eines Stoffs.

Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide Begriffe haben Gemeinsamkeiten, deren Erkennen allerdings Kenntnisse in beiden Fachgebieten voraussetzt.

Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication] und prägte damit die moderne Informationstheorie.

 

 

 

 

 

 

 

Translate »

Pin It on Pinterest

Share This

Share This

Share this post with your friends!

Share This

Share this post with your friends!

Erhalten Sie unsere Neuigkeiten per E-Mail

Erhalten Sie unsere Neuigkeiten per E-Mail

Melden Sie sich mit Ihrer E-Mail Adresse an und erhalten Sie alle Neuigkeiten von unserem Team.

Schauen Sie in Ihr Postfach!