dbo:abstract
|
- L'entropia és una magnitud termodinàmica definida originàriament com a criteri per a predir l'evolució dels sistemes termodinàmics. Des de la seva introducció per Rudolf Clausius l'any 1865, han aparegut diverses definicions d'entropia, la més rellevant de les quals (elaborada per Ludwig Boltzmann) va relacionar el concepte d'entropia amb el grau de desordre d'un sistema. Aquesta nova perspectiva de l'entropia va permetre estendre el concepte a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps. (ca)
- Entropie je jedním ze základních a nejdůležitějších pojmů ve fyzice, teorii pravděpodobnosti a teorii informace, matematice a mnoha dalších oblastech vědy teoretické i aplikované. Vyskytuje se všude tam, kde se pracuje s pravděpodobností možných stavů daného systému. V populárních výkladech se často vyskytuje přiblížení entropie jako veličiny udávající „míru neuspořádanosti“ zkoumaného systému. Problémem tohoto vysvětlení je, že tato „definice“ používá pojem „neuspořádanost“, který je však sám nedefinovaný. Vhodnější je intuitivní představa entropie jako míry neurčitosti systému. Zatímco „ostrá“ rozdělení pravděpodobnosti (jako například prahování) mají entropii nízkou, naopak „neostrá“ či „rozmazaná“ rozdělení pravděpodobnosti mají entropii vysokou. Za pravděpodobnostní rozložení s nejvyšší entropií lze považovat normální (pro danou střední hodnotu a směrodatnou odchylku) nebo rovnoměrné (pro daný interval) rozložení. Původ slova „entropie“ je odvozen z řeckého εντροπία, "směrem k", (εν- "k" + τροπή "směrem"). (cs)
- الإنتروبيا أو القصور الحراري (بالإنجليزية: Entropy) أصل الكلمة مأخوذ عن اليونانية ومعناها «تحول». وهو مفهوم هام في التحريك الحراري، وخاصة للقانون الثاني الذي يتعامل مع العمليات الفيزيائية للأنظمة الكبيرة المكونة من جزيئات بالغة الأعداد ويبحث سلوكها كعملية تتم تلقائيا أم لا. ينص القانون الثاني للديناميكا الحرارية على مبدأ أساسي يقول: أي تغير يحدث تلقائيا في نظام فيزيائي لا بد وأن يصحبه ازدياد في مقدار «إنتروبيته». يميل أي نظام مغلق إلى التغير أو التحول تلقائيا بزيادة أنتروبيته حتى يصل إلى حالة توزيع متساو في جميع أجزائه، مثل تساويدرجة الحرارة، وتساوي الضغط، وتساوي الكثافة وغير تلك الصفات في نظام ما. وقد يحتاج النظام المعزول للوصول إلى هذا التوازن بعضا من الوقت. مثال على ذلك إلقاء قطرة من الحبر الأزرق في كوب ماء؛ نلاحظ أن قطرة الحبر تذوب وتنتشر رويدا رويدا في الماء حتي يصبح كل جزء من الماء متجانسا بما فيه من حبر وماء، فنقول أن أنتروبية النظام تزايدت (أي زادت العشوائية فيه، فلا يوجد به منطقة عالية التركيز وأخرى منخفضة التركيز، توزيع الحبر في الماء متساو). أي أن مجموع إنتروبية نقطة الحبر النقية + إنتروبية الماء النقي تكون أقل من إنتروبية النظام «حبر ذائب في ماء». وماذا عن عكس العملية ؟ أي محاولة فصل الحبر الذائب عن الماء. فهذه العملية يتبعها خفض لأنتروبيا النظام، وكما نعرف هذا لا يسير وحده طبيعيا؛ فلم نرى في الطبيعة أن يتجمع الحبر ثانيا ويحتل جزءا منفصلا في كوب الماء. ولكننا بأداء شغل يمكن فصلهما ثانيا عن بعض. مثل تسخين المخلوط وتقطيره مثلا. معنى ذلك أن خفض الإنتروبيا لا يتم إلا باستخدام طاقة خارجية، ألا وهي التسخين والتقطير. وهذا مثلا ما نستعمله في تحلية المياه لفصل الملح عن ماء البحر وإنتاج ماء عذبا. ومثال أخر طبيعي إذا وقع كوب زجاجي من أعلى المنضدة على الأرض فإنه يتحطم تماما، أي تكون انتروبيتة الكوب قد زادت. فإذا إردنا إعادة الكوب إلى أصله السليم ثانيا - وهذا لا يحدث ذاتيا في الطبيعة - فإننا لا بد وأن نزاول شغل على النظام ؛ بمعنى أننا نجمع قطع الزجاج المنكسر، ثم صهره في فرن ثم صب الزجاج المنصهر في قالب من جديد، فنحصل على الكوب ثانيا سليم. من هنا اتخذت صفة لنظام في الطبيعة أهميتها. فهي تحدد اتجاه سير عملية ما طبيعيا. وقد أصبح للإنتروبيا كأحد الصفات الطبيعية لنظام أهمية من خلال علاقة الإنتروبيا بتحول الطاقة الحرارية إلى شغل ميكانيكي. فنجدها تلعب دورا هاما في تحديد كفاءة آلات، مثل محرك الاحتراق الداخلي ومحرك الديزل وغيرها. ولوصف مدلول الإنتروبيا نفترض المثال المذكور أعلاه وهو مثال الماء ونقطة الحبر الذائبة فيه فنجد أن اختلاط نقطة الحبر بالماء سهل ويتم طبيعيا، أما إذا أردنا فصل نقطة الحبر ثانيا عن الماء ليصبح لدينا ماء نقي وحبر نقي فتلك عملية صعبة ولا تتم إلا ببذل شغل. فنقول أن حالة المخلوط له إنتروبيا كبيرة، بينما حالة الماء النقي والحبر النقي فهي حالة يكون أنتروبيتها منخفضة. وتصادفنا مثل تلك العملية عمليات يومية مثل فصل السكر عن محلول قصب السكر، إننا نقوم بذلك عن طريق تبخير المحلول، أي بتسخين المحلول وبذل شغل، أي بذل طاقة، لفصل السكر عن الماء. وأيضا الكمون الكيميائي ضمن أي نظام فيزيائي أو كيميائي يميل تلقائيا إلى خفض الطاقة الداخلية للنظام إلى أقل ما يمكن، لكي يصل النظام لحالة من التوازن. الإنتروبي ضمن هذا المفهوم هو مقدار تقدم عملية التحول والتوازن هذه. (ar)
- Στη θερμοδυναμική, εντροπία είναι η έννοια μέσω της οποίας μετράται η αταξία, της οποίας η μέγιστη τιμή αντικατοπτρίζει την πλήρη (ομογενοποίηση των πάντων) και ισοδυναμεί με την παύση της ζωής. Σε μια τέτοια κατάσταση δεν υπάρχει καμία διαδικασία και δεν βρίσκεται «σε λήθαργο» (κρυμμένη) κανενός είδους πληροφορία που να επιτρέπει τη ζωή, αν με κάποιο τρόπο γίνει εκ νέου παροχή μόνο ενέργειας. Αφαιρώντας την έννοια της πληροφορίας που δεν είναι αντικειμενικά μετρήσιμη (η εντροπία που εξαρτάται από αυτήν είναι επίσης μη αντικειμενικά μετρήσιμη και μάλιστα αφήνεται χωρίς μονάδες), προκύπτει μια μορφή εντροπίας που αφορά μόνο θερμικές μεταβολές, υπολογίζεται και είναι σαφώς ορισμένη: η θερμοδυναμική εντροπία. Η θερμοδυναμική εντροπία είναι εκτατική μεταβλητή ενός θερμοδυναμικού συστήματος. (el)
- Entropio (greke τρoπή, ‚transformo‘) estas mezuro de malordo de sistemo. Ĝi estas koncepto de termodinamiko ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo). (eo)
- Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße eines physikalischen Systems. Ihre SI-Einheit ist Joule pro Kelvin (J/K). Die Entropie eines Systems steigt mit jedem Prozess, der innerhalb des Systems spontan abläuft, und mit jeder Zufuhr von Wärme oder Materie von außen. Spontan ablaufende Prozesse sind z. B. Vermischung, Wärmeleitung, chemische Reaktion, aber auch Umwandlung von mechanischer Arbeit in Innere Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen kann die Entropie eines Systems nicht durch innere Prozesse, sondern nur durch Abgabe von Wärme oder Materie nach außen. Daher kann in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im Laufe der Zeit nur gleich bleiben oder zunehmen (Zweiter Hauptsatz der Thermodynamik). Hat ein abgeschlossenes System die maximal mögliche Entropie erreicht, kommen alle spontan darin ablaufenden Prozesse zum Erliegen, und das System ist in einem stabilen Gleichgewichtszustand. Beispielsweise beobachten wir, dass in einem System aus einem kalten und einem heißen Körper in einer Isolierbox, d. h. in einem praktisch abgeschlossenen System, Wärmetransport einsetzt und der Temperaturunterschied verschwindet. Beide Körper werden nach einer gewissen Zeit die gleiche Temperatur haben, womit das System den Zustand größter Entropie erreicht hat und sich nicht weiter verändert. Wir beobachten in einem solchen geschlossenen System niemals das spontane Abkühlen des kälteren Körpers und das Erhitzen des wärmeren. Spontane Prozesse werden als irreversible Prozesse bezeichnet. In einem abgeschlossenen System kann ein irreversibler Prozess nur durch einen äußeren Eingriff rückgängig gemacht werden, bei dem die entstandene Entropie abgeführt wird. Dazu muss das System mit seiner Umgebung gekoppelt werden, die den Zuwachs an Entropie aufnimmt und ihren eigenen Zustand dadurch auch verändert. Eine nähere Deutung der Entropie wird in der statistischen Mechanik gegeben, wo Systeme aus sehr vielen einzelnen Teilchen betrachtet werden. Ein Makrozustand eines solchen Systems, der durch bestimmte Werte der makroskopischen thermodynamischen Größen definiert ist, kann durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein, die durch innere Prozesse ständig ineinander übergehen, ohne dass sich die makroskopischen Werte dabei ändern. Die Anzahl dieser Mikrozustände bestimmt die Entropie, die das System in dem gegebenen Makrozustand besitzt. In einem System, das von einem beliebigen Anfangszustand aus sich selbst überlassen bleibt, bewirken dann diese inneren Prozesse, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände zu realisieren ist. Dieser Zustand hat die höchstmögliche Entropie und stellt den stabilen (makroskopischen) Gleichgewichtszustand des Systems dar. Während dieser spontan ablaufenden Annäherung an den Gleichgewichtszustand, die als Relaxation bezeichnet wird, wird Entropie erzeugt. Im Rahmen dieser Deutung wird umgangssprachlich die Entropie häufig als ein „Maß für die Unordnung“ bezeichnet. Allerdings ist Unordnung kein definierter physikalischer Begriff und hat daher kein physikalisches Maß. Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um von einem beobachtbaren Makrozustand auf den tatsächlich vorliegenden Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird. (de)
- Entropy is a scientific concept, as well as a measurable physical property, that is most commonly associated with a state of disorder, randomness, or uncertainty. The term and the concept are used in diverse fields, from classical thermodynamics, where it was first recognized, to the microscopic description of nature in statistical physics, and to the principles of information theory. It has found far-ranging applications in chemistry and physics, in biological systems and their relation to life, in cosmology, economics, sociology, weather science, climate change, and information systems including the transmission of information in telecommunication. The thermodynamic concept was referred to by Scottish scientist and engineer William Rankine in 1850 with the names thermodynamic function and heat-potential. In 1865, German physicist Rudolf Clausius, one of the leading founders of the field of thermodynamics, defined it as the quotient of an infinitesimal amount of heat to the instantaneous temperature. He initially described it as transformation-content, in German Verwandlungsinhalt, and later coined the term entropy from a Greek word for transformation. Referring to microscopic constitution and structure, in 1862, Clausius interpreted the concept as meaning disgregation. A consequence of entropy is that certain processes are irreversible or impossible, aside from the requirement of not violating the conservation of energy, the latter being expressed in the first law of thermodynamics. Entropy is central to the second law of thermodynamics, which states that the entropy of isolated systems left to spontaneous evolution cannot decrease with time, as they always arrive at a state of thermodynamic equilibrium, where the entropy is highest. Austrian physicist Ludwig Boltzmann explained entropy as the measure of the number of possible microscopic arrangements or states of individual atoms and molecules of a system that comply with the macroscopic condition of the system. He thereby introduced the concept of statistical disorder and probability distributions into a new field of thermodynamics, called statistical mechanics, and found the link between the microscopic interactions, which fluctuate about an average configuration, to the macroscopically observable behavior, in form of a simple logarithmic law, with a proportionality constant, the Boltzmann constant, that has become one of the defining universal constants for the modern International System of Units (SI). In 1948, Bell Labs scientist Claude Shannon developed similar statistical concepts of measuring microscopic uncertainty and multiplicity to the problem of random losses of information in telecommunication signals. Upon John von Neumann's suggestion, Shannon named this entity of missing information in analogous manner to its use in statistical mechanics as entropy, and gave birth to the field of information theory. This description has been identified as a universal definition of the concept of entropy. (en)
- En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio; también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico. La entropía es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se da de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra «entropía» procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850; y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad. (es)
- Entropia (S ikurraz adierazi ohi da) orekako sistema termodinamikoen bat da. Oreka egoeran sistemak izan dezakeen mikroegoera (azpiegitura) kopurua eta azpiegitura horietako bakoitza izateko duen probabilitatea zenbatesten du. Entropia sistema baten antolaketa gradu moduan edo sistemaren barne energiaren aldaketaren eta tenperatura aldaketaren arteko erlazio moduan uler daiteke. entropiaren balioa handitzen da sistemak modu naturalean prozesu bat jasaten duenean. Kontzeptu hau prozesuen aztertzeko erreminta erabilgarria da. Entropia fisika eta ingeniaritzan erabiltzeaz gain, informatikan eta matematikan ere azaltzen den kontzeptua da, eta arlo hauetan guztietan entropia ondorengo ekuazioak neurtzen du: Non:
* = entropia.
* = azpiegitura identifikatzailea.
* = azpiegitura bakoitzak gertatzeko duen probabilitatea.
* = unitate sistemara moldatzeko konstantea, SI sisteman Boltzmannen konstantea kSI = 1,38066×10−23. (eu)
- Sa teirmidinimic, tomhas uimhriúil ar an mí-ord. Úsáidtear an tsiombail S di, agus is i ngiúil in aghaidh an cheilvin (J K-1) a thomhaistear í. De réir mar a mhéadaíonn an mí-ord, is amhlaidh a mhéadaíonn an eantrópacht. Mar shampla, samhlaigh córas ina bhfuil umar uisce is braon dúigh. Nuair a chuirtear an braon dúigh isteach san umar uisce, méadaítear eantrópacht an chórais mar go bhfuil mí-ord an dúigh scaipthe níos mó ná roimhe. Ní athbhaileoidh na páirteagail dúigh le chéile arís, rud a léiríonn nach laghdaíonn an eantrópacht go spontáineach. Sainmhínítear an t-athrú eantrópachta mar an méid teasa a chuirtear le córas, roinnte ar a theocht i K nuair a choinnítear an teocht tairiseach. Mar shampla, is é an méadú eantrópachta i 1 kg oighir nuair a leánn sé go huisce ag 0 °C (273 K) ná 1223 J K-1. Nuair a reoitear uisce go dtí oighear, laghdaítear eantrópacht an uisce sin, ach ar chostas an mhéadú eantrópachta sa chóras iomlán, an cuisneoir is an seomra san áireamh. Tugann an t-athrú eantrópachta léargas breise ar threo próisis atá inchúlaithe ó thaobh imchoimeád an fhuinnimh de, de réir dealraimh. Is tairiseach an eantrópacht i bpróiseas inchúlaithe de chineál amháin, agus is é sin próiseas nach suimítear nó nach ndealaítear teas lena linn. De réir dara dlí na teirmidinimice, fanann an eantrópacht gan athrú nó méadaíonn an eantrópacht i ngach uile phróiseas. (ga)
- Le terme entropie a été introduit en 1865 par Rudolf Clausius à partir d'un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation, ou d'imprédictibilité, du contenu en information d'un système. (fr)
- Entropi adalah salah satu yang mengukur energi dalam sistem per satuan temperatur yang tak dapat digunakan untuk melakukan . Mungkin manifestasi yang paling umum dari entropi adalah (mengikuti hukum termodinamika), entropi dari sebuah sistem tertutup selalu naik dan pada kondisi transfer panas, energi panas berpindah dari komponen yang bersuhu lebih tinggi ke komponen yang bersuhu lebih rendah. Pada suatu sistem yang panasnya terisolasi, entropi hanya berjalan satu arah (bukan proses reversibel/bolak-balik). Entropi suatu sistem perlu diukur untuk menentukan bahwa energi tidak dapat dipakai untuk melakukan pada . Proses-proses ini hanya bisa dilakukan oleh energi yang sudah diubah bentuknya, dan ketika energi diubah menjadi kerja/usaha, maka secara teoretis mempunyai efisiensi maksimum tertentu. Selama kerja/usaha tersebut, entropi akan terkumpul pada sistem, yang lalu dalam bentuk panas buangan. Pada termodinamika klasik, konsep entropi didefinisikan pada hukum kedua termodinamika, yang menyatakan bahwa entropi dari selalu bertambah atau tetap konstan. Maka, entropi juga dapat menjadi ukuran kecenderungan suatu proses, apakah proses tersebut cenderung akan "terentropikan" atau akan berlangsung ke arah tertentu. Entropi juga menunjukkan bahwa energi panas selalu mengalir secara spontan dari daerah yang suhunya lebih tinggi ke daerah yang suhunya lebih rendah. Entropi termodinamika mempunyai energi dibagi temperatur, yang mempunyai Satuan Internasional joule per kelvin (J/K). Kata entropi pertama kali dicetuskan oleh Rudolf Clausius pada tahun 1865, berasal dari bahasa Yunani εντροπία [entropía], εν- [en-] (masuk) dan τροπή [tropē] (mengubah, mengonversi). (in)
- L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera . Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce l'indicazione sulla direzione in cui evolve spontaneamente un sistema, quindi anche la freccia del tempo (come già affermato da Arthur Eddington). L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità. (it)
- ( 다른 뜻에 대해서는 엔트로피 (동음이의) 문서를 참고하십시오.) 엔트로피(영어: entropy, 독일어: entropie)는 열역학적 계의 유용하지 않은 (일로 변환할 수 없는) 에너지의 흐름을 설명할 때 이용되는 상태 함수다. 통계역학적으로, 주어진 거시적 상태에 대응하는 미시적 상태의 수의 로그로 생각할 수 있다. 엔트로피는 일반적으로 보존되지 않고, 열역학 제2법칙에 따라 시간에 따라 증가한다. 독일의 물리학자 루돌프 클라우지우스가 1850년대 초에 도입하였다. 대개 기호로 라틴 대문자 S를 쓴다. (ko)
- Entropie (S) is een basisbegrip in de thermodynamica. Het is, op het meest fundamentele niveau, een maat voor de waarschijnlijkheid van een bepaalde verdeling van microtoestanden (bewegingstoestanden van elementaire bouwstenen als atomen en moleculen), binnen een geïsoleerd fysisch systeem. Naarmate er minder bouwstenen en/of minder vrijheidsgraden zijn voor die microtoestanden wordt de entropie kleiner, en nadert uiteindelijk tot "0" (het absolute nulpunt), als alle bouwstenen absoluut stilstaan en er ook verder geen inwendige energie meer over is. De entropie wordt daarentegen maximaal, als alle microtoestanden binnen gegeven vrijheidsgraden (bijvoorbeeld een bepaald volume) maximaal benut kunnen worden. Dat leidt bij een zekere temperatuur en druk tot een evenwichtstoestand. Een toestand waarin macroscopische grootheden als druk en temperatuur ongelijk verdeeld zijn over een volume, heeft meestal veel minder realisatiemogelijkheden van microtoestanden dan één met een gelijkmatige verdeling. De ongelijke verdeling van macroscopische grootheden in een geïsoleerd systeem (dat wil zeggen met een vast volume, en zonder dat er energie in of uit kan) neigt dus op statistische gronden tot afvlakken van die ongelijkmatigheden. Een formele manier om dit uit te drukken is de tweede wet van de thermodynamica. De SI-eenheid van entropie is de joule per kelvin (J/K). Een toegankelijke verhandeling over het ontstaan en de betekenis van het begrip entropie is te vinden op de website van Quantumuniverse. (nl)
- エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者ののようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーはサディ・カルノーにちなんで一般に記号 S を用いて表される。 (ja)
- Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu i rozproszenia energii. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius. (pl)
- A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mede o grau de liberdade molecular de um sistema, e está associado ao seu número de configurações (ou microestados), ou seja, de quantas maneiras as partículas (átomos, íons ou moléculas) podem se distribuir em níveis energéticos quantizados, incluindo translacionais, vibracionais, rotacionais, e eletrônicos. Entropia também é geralmente associada a aleatoriedade, dispersão de matéria e energia, e "desordem" (não em senso comum) de um sistema termodinâmico. A entropia é a entidade física que rege a segunda lei da termodinâmica, a qual estabelece que a ela deve aumentar para processos espontâneos e em sistemas isolados. Para sistemas abertos, deve-se estabelecer que a entropia do universo (sistema e suas vizinhanças) deve aumentar devido ao processo espontâneo até o meio formado por sistema + vizinhanças atingir um valor máximo no estado de equilíbrio. Nesse ponto, é importante ressaltar que vizinhanças se entende como a parte do resto do universo capaz de interagir com o sistema, através de, por exemplo, trocas de calor. A segunda lei da termodinâmica foi primeiramente relacionada historicamente com processos cíclicos que convertiam calor em trabalho. Percebeu-se que energia térmica (calor) não poderia ser completamente convertida em trabalho em máquinas térmicas de motor perpétuo, sempre havendo a necessidade de perda de uma quantidade mínima de calor para um reservatório frio para que o sistema voltasse ao estado original. Dessa maneira, a variação de entropia de um processo está relacionada com a parcela de energia que não pode ser transformada em trabalho em transformações termodinâmicas a dada temperatura. Por esse fato, a mensuração da variação de entropia está diretamente relacionada a processos reversíveis, uma vez que processos no equilíbrio (ou mais próximos possíveis às condições de equilíbrio) estão associados com a máxima energia que um sistema pode perder para as vizinhanças na forma de trabalho (chamado de trabalho máximo ou trabalho útil). Portanto a energia "não disponível" é o mínimo valor que não pode ser descartado na forma de calor reversível em um processo que ocorre espontaneamente. Em outras palavras, a variação de entropia mede o grau de irreversibilidade de um processo. A parcela máxima de energia interna de um sistema pode mais ser convertida em trabalho em um dado processo pode ser determinada pelo produto da variação de energia interna do processo subtraído do produto da variação entropia S pela temperatura absoluta T do sistema no respectivo estado (desde que a temperatura constante). Essa parcela máxima de energia é conhecida como variação de energia livre de Helmholtz (ΔA). Dessa maneira, define-se a energia livre de Helmholtz como . Esse valor, assim como a entropia, é uma função de estado do sistema, e por tal dá origem a um potencial termodinâmico: a energia livre de Helmholtz do sistema em consideração. Esse valor prevê espontaneidade a processos que ocorrem a temperatura e volume contante, e deve diminuir para processos espontâneos, correspondendo, portanto, ao trabalho máximo. Para processos que ocorrem a pressão e temperatura constante, pode-se usar, analogamente, a energia livre de Gibbs, sendo útil particularmente para prever espontaneidade para reações químicas e mudanças de fase. A entropia não é uma grandeza que busca mensurar a energia ou a matéria totais encerradas pelas fronteiras do sistema termodinâmico, mas sim como esta matéria e esta energia encontram-se armazenadas e distribuídas no sistema definido por tais fronteiras. Assim, embora uma grandeza bem distinta das grandezas massa, energia interna e quantidade de matéria, a entropia de um sistema encontra-se certamente relacionada às grandezas citadas, sendo, da mesma forma que as anteriores, uma propriedade do sistema. A fim de definir-se um sistema simples especificam-se a energia interna U, a massa m - especificamente a quantidade de matéria N e a natureza das partículas que integram o sistema - e o seu volume V, e ao fazê-lo determina-se também, de forma automática, o valor da entropia S do sistema - uma grandeza escalar - no estado final a ser atingido uma vez dado tempo suficiente para que todos os processos necessários aconteçam. Assim a entropia S nos estados de equilíbrio termodinâmico é uma função das grandezas antes citadas: . Assim, segundo a Segunda Lei da Termodinâmica, processos que levam o sistema do estado inicial, logo após ter sido isolado, até o estado de final (o estado de equilíbrio termodinâmico ) ocorrem sempre de forma a provocarem aumentos ou, no limite, a manutenção, do valor da entropia do sistema. Não ocorrem processos que impliquem a diminuição da entropia total de um sistema isolado. A entropia é, pois, uma função de estado que obedece a um princípio de maximização, o "princípio da máxima entropia": a entropia em um estado de equilíbrio termodinâmico - satisfeitas as restrições impostas ao sistema - é sempre a máxima possível. Portanto, sistemas fora do equilíbrio tendem a caminhar irreversivelmente para o estado de equilíbrio, e o aumento de entropia indicará o sentido espontâneo do processo. A entropia é uma função de estado cujo valor sempre cresce durante em sistemas isolados; e quando escrita em função das grandezas extensivas energia interna U, volume V e número de elementos N - no caso dos sistemas termodinâmicos mais simples - a entropia é, assim como as respectivas Transformadas de Legendre, uma equação fundamental para o sistema termodinâmico em questão. É, então, possível, a partir desta e de todo o formalismo termodinâmico, obter-se qualquer informação física relevante para o sistema em estudo. Se expressa em função de uma ou mais grandezas que não as citadas - cônjuges a si - a expressão para a entropia S reduz-se a uma mera equação de estado. As equações de estado, embora relacionem valores de grandezas termodinâmicas nos estados de equilíbrio, não retêm em si, individualmente, todas as informações acerca do sistema. É necessário o conhecimento de todas as equações de estado para recuperar-se a completeza acerca das informações - para a partir delas se estabelecer uma equação fundamental - e via transformada de Legendre, se estabelecer qualquer das demais equações fundamentais - se desejada. (pt)
- Entropi är en fysikalisk tillståndsfunktion, betecknad S. Inom statistisk mekanik kan den ses som ett mått på sannolikheten för att ett system skall inta ett visst tillstånd; inom termodynamik snarare som ett mått på hur mycket av värmeenergin i ett system som inte kan omvandlas till arbete. Entropibegreppet används dessutom inom statistik, informationsteori, psykologi, och teorier om sinnet. (sv)
- Ентропія — фізична величина, яка використовується для опису термодинамічної системи, є однією з основних термодинамічних величин. Ентропія є функцією стану термодинамічної системи і широко використовується в термодинаміці, в тому числі технічній (аналіз роботи теплових машин і холодильних установок) і хімічній (розрахунок рівноваги хімічних реакцій). Твердження про існування і зростання ентропії та перелік її властивостей складають зміст другого закону термодинаміки. Значущість цієї величини для фізики обумовлена тим, що поряд з температурою, її використовують для опису термічних явищ і термічних властивостей макроскопічних об'єктів. Ентропію також називають мірою хаосу. У статистичній механіці ентропія є широкою властивістю термодинамічної системи. Вона тісно пов'язана з кількістю Ω мікроскопічних конфігурацій (відомих як мікростани), які відповідають макроскопічним величинам, що характеризують систему (наприклад, її об'єм, тиск і температура). Ентропія виражає число Ω різних конфігурацій, яке може прийняти система, визначена макроскопічними змінними. За припущенням, що кожен мікростан однаково ймовірний, ентропія S є натуральним логарифмом кількості мікростанів, помножених на сталу Больцмана. Макроскопічні системи зазвичай мають дуже велику кількість Ω можливих мікроскопічних конфігурацій. Наприклад, ентропія ідеального газу пропорційна кількості молекул газу N. Кількість молекул у двадцяти літрах газу за кімнатної температури та атмосферному тиску, дорівнює приблизно числу Авогадро. Другий закон термодинаміки говорить, що ентропія ізольованої системи ніколи не зменшується з часом. Ізольовані системи стихійно розвиваються до термодинамічної рівноваги, стану з максимальною ентропією. Неізольовані системи, такі як організми, можуть втратити ентропію за умови, що ентропія їхнього середовища зростатиме щонайменше на таку кількість, щоби загальна ентропія зростала. Тому загальна ентропія у Всесвіті зростає. Ентропія — це функція стану системи, тому зміна ентропії системи визначається її початковим і кінцевим станами. В ідеалізації того, що процес є оборотним, ентропія не змінюється, тоді як незворотні процеси завжди збільшують загальну ентропію. Оскільки це визначається кількістю випадкових мікростанів, ентропія пов'язана з кількістю додаткової інформації, потрібної для точного визначення фізичного стану системи, враховуючи її макроскопічну специфікацію. З цієї причини часто говорять, що ентропія є вираженням безладу, або випадковості системи, чи відсутності інформації про неї. Концепція ентропії відіграє центральну роль в теорії інформації. (uk)
- 熵(shāng)(英語:entropy),是一種測量在動力學方面不能做功的能量總數,也就是當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算一個系統中的失序現象,也就是計算該系統混亂的程度。熵是一个描述系统状态的函数,但是经常用熵的参考值和变化量进行分析比较,它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。 (zh)
- Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин (впервые введён в рамках термодинамики как функция состояния термодинамической системы), обозначающий меру необратимого рассеивания энергии или бесполезности энергии (потому что не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу). Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия; термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. В этих областях знания энтропия определяется статистически и называется статистической или информационной энтропией. Данное определение энтропии известно также как энтропия Шеннона (в математике) и энтропия Больцмана—Гиббса (в физике). Хотя понятия термодинамической и информационной энтропии вводятся в рамках различных формализмов, они имеют общий физический смысл — логарифм числа доступных микросостояний системы. Взаимосвязь этих понятий впервые установил Людвиг Больцман. В неравновесных (необратимых) процессах энтропия также служит мерой близости состояния системы к равновесному: чем больше энтропия, тем ближе система к равновесию (в состоянии термодинамического равновесия энтропия системы максимальна). Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией. (ru)
|
rdfs:comment
|
- L'entropia és una magnitud termodinàmica definida originàriament com a criteri per a predir l'evolució dels sistemes termodinàmics. Des de la seva introducció per Rudolf Clausius l'any 1865, han aparegut diverses definicions d'entropia, la més rellevant de les quals (elaborada per Ludwig Boltzmann) va relacionar el concepte d'entropia amb el grau de desordre d'un sistema. Aquesta nova perspectiva de l'entropia va permetre estendre el concepte a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps. (ca)
- Στη θερμοδυναμική, εντροπία είναι η έννοια μέσω της οποίας μετράται η αταξία, της οποίας η μέγιστη τιμή αντικατοπτρίζει την πλήρη (ομογενοποίηση των πάντων) και ισοδυναμεί με την παύση της ζωής. Σε μια τέτοια κατάσταση δεν υπάρχει καμία διαδικασία και δεν βρίσκεται «σε λήθαργο» (κρυμμένη) κανενός είδους πληροφορία που να επιτρέπει τη ζωή, αν με κάποιο τρόπο γίνει εκ νέου παροχή μόνο ενέργειας. Αφαιρώντας την έννοια της πληροφορίας που δεν είναι αντικειμενικά μετρήσιμη (η εντροπία που εξαρτάται από αυτήν είναι επίσης μη αντικειμενικά μετρήσιμη και μάλιστα αφήνεται χωρίς μονάδες), προκύπτει μια μορφή εντροπίας που αφορά μόνο θερμικές μεταβολές, υπολογίζεται και είναι σαφώς ορισμένη: η θερμοδυναμική εντροπία. Η θερμοδυναμική εντροπία είναι εκτατική μεταβλητή ενός θερμοδυναμικού συστήματος. (el)
- Entropio (greke τρoπή, ‚transformo‘) estas mezuro de malordo de sistemo. Ĝi estas koncepto de termodinamiko ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo). (eo)
- Le terme entropie a été introduit en 1865 par Rudolf Clausius à partir d'un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation, ou d'imprédictibilité, du contenu en information d'un système. (fr)
- ( 다른 뜻에 대해서는 엔트로피 (동음이의) 문서를 참고하십시오.) 엔트로피(영어: entropy, 독일어: entropie)는 열역학적 계의 유용하지 않은 (일로 변환할 수 없는) 에너지의 흐름을 설명할 때 이용되는 상태 함수다. 통계역학적으로, 주어진 거시적 상태에 대응하는 미시적 상태의 수의 로그로 생각할 수 있다. 엔트로피는 일반적으로 보존되지 않고, 열역학 제2법칙에 따라 시간에 따라 증가한다. 독일의 물리학자 루돌프 클라우지우스가 1850년대 초에 도입하였다. 대개 기호로 라틴 대문자 S를 쓴다. (ko)
- エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者ののようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーはサディ・カルノーにちなんで一般に記号 S を用いて表される。 (ja)
- Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu i rozproszenia energii. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius. (pl)
- Entropi är en fysikalisk tillståndsfunktion, betecknad S. Inom statistisk mekanik kan den ses som ett mått på sannolikheten för att ett system skall inta ett visst tillstånd; inom termodynamik snarare som ett mått på hur mycket av värmeenergin i ett system som inte kan omvandlas till arbete. Entropibegreppet används dessutom inom statistik, informationsteori, psykologi, och teorier om sinnet. (sv)
- 熵(shāng)(英語:entropy),是一種測量在動力學方面不能做功的能量總數,也就是當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算一個系統中的失序現象,也就是計算該系統混亂的程度。熵是一个描述系统状态的函数,但是经常用熵的参考值和变化量进行分析比较,它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。 (zh)
- الإنتروبيا أو القصور الحراري (بالإنجليزية: Entropy) أصل الكلمة مأخوذ عن اليونانية ومعناها «تحول». وهو مفهوم هام في التحريك الحراري، وخاصة للقانون الثاني الذي يتعامل مع العمليات الفيزيائية للأنظمة الكبيرة المكونة من جزيئات بالغة الأعداد ويبحث سلوكها كعملية تتم تلقائيا أم لا. ينص القانون الثاني للديناميكا الحرارية على مبدأ أساسي يقول: أي تغير يحدث تلقائيا في نظام فيزيائي لا بد وأن يصحبه ازدياد في مقدار «إنتروبيته». وتصادفنا مثل تلك العملية عمليات يومية مثل فصل السكر عن محلول قصب السكر، إننا نقوم بذلك عن طريق تبخير المحلول، أي بتسخين المحلول وبذل شغل، أي بذل طاقة، لفصل السكر عن الماء. (ar)
- Entropie je jedním ze základních a nejdůležitějších pojmů ve fyzice, teorii pravděpodobnosti a teorii informace, matematice a mnoha dalších oblastech vědy teoretické i aplikované. Vyskytuje se všude tam, kde se pracuje s pravděpodobností možných stavů daného systému. Původ slova „entropie“ je odvozen z řeckého εντροπία, "směrem k", (εν- "k" + τροπή "směrem"). (cs)
- Entropy is a scientific concept, as well as a measurable physical property, that is most commonly associated with a state of disorder, randomness, or uncertainty. The term and the concept are used in diverse fields, from classical thermodynamics, where it was first recognized, to the microscopic description of nature in statistical physics, and to the principles of information theory. It has found far-ranging applications in chemistry and physics, in biological systems and their relation to life, in cosmology, economics, sociology, weather science, climate change, and information systems including the transmission of information in telecommunication. (en)
- Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße eines physikalischen Systems. Ihre SI-Einheit ist Joule pro Kelvin (J/K). (de)
- En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio; también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico. (es)
- Entropia (S ikurraz adierazi ohi da) orekako sistema termodinamikoen bat da. Oreka egoeran sistemak izan dezakeen mikroegoera (azpiegitura) kopurua eta azpiegitura horietako bakoitza izateko duen probabilitatea zenbatesten du. Entropia sistema baten antolaketa gradu moduan edo sistemaren barne energiaren aldaketaren eta tenperatura aldaketaren arteko erlazio moduan uler daiteke. entropiaren balioa handitzen da sistemak modu naturalean prozesu bat jasaten duenean. Kontzeptu hau prozesuen aztertzeko erreminta erabilgarria da. Non: (eu)
- Sa teirmidinimic, tomhas uimhriúil ar an mí-ord. Úsáidtear an tsiombail S di, agus is i ngiúil in aghaidh an cheilvin (J K-1) a thomhaistear í. De réir mar a mhéadaíonn an mí-ord, is amhlaidh a mhéadaíonn an eantrópacht. Mar shampla, samhlaigh córas ina bhfuil umar uisce is braon dúigh. Nuair a chuirtear an braon dúigh isteach san umar uisce, méadaítear eantrópacht an chórais mar go bhfuil mí-ord an dúigh scaipthe níos mó ná roimhe. Ní athbhaileoidh na páirteagail dúigh le chéile arís, rud a léiríonn nach laghdaíonn an eantrópacht go spontáineach. (ga)
- Entropi adalah salah satu yang mengukur energi dalam sistem per satuan temperatur yang tak dapat digunakan untuk melakukan . Mungkin manifestasi yang paling umum dari entropi adalah (mengikuti hukum termodinamika), entropi dari sebuah sistem tertutup selalu naik dan pada kondisi transfer panas, energi panas berpindah dari komponen yang bersuhu lebih tinggi ke komponen yang bersuhu lebih rendah. Pada suatu sistem yang panasnya terisolasi, entropi hanya berjalan satu arah (bukan proses reversibel/bolak-balik). Entropi suatu sistem perlu diukur untuk menentukan bahwa energi tidak dapat dipakai untuk melakukan pada . Proses-proses ini hanya bisa dilakukan oleh energi yang sudah diubah bentuknya, dan ketika energi diubah menjadi kerja/usaha, maka secara teoretis mempunyai efisiensi maksimum t (in)
- L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera . Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). (it)
- Entropie (S) is een basisbegrip in de thermodynamica. Het is, op het meest fundamentele niveau, een maat voor de waarschijnlijkheid van een bepaalde verdeling van microtoestanden (bewegingstoestanden van elementaire bouwstenen als atomen en moleculen), binnen een geïsoleerd fysisch systeem. Naarmate er minder bouwstenen en/of minder vrijheidsgraden zijn voor die microtoestanden wordt de entropie kleiner, en nadert uiteindelijk tot "0" (het absolute nulpunt), als alle bouwstenen absoluut stilstaan en er ook verder geen inwendige energie meer over is. De entropie wordt daarentegen maximaal, als alle microtoestanden binnen gegeven vrijheidsgraden (bijvoorbeeld een bepaald volume) maximaal benut kunnen worden. Dat leidt bij een zekere temperatuur en druk tot een evenwichtstoestand. Een toestan (nl)
- A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mede o grau de liberdade molecular de um sistema, e está associado ao seu número de configurações (ou microestados), ou seja, de quantas maneiras as partículas (átomos, íons ou moléculas) podem se distribuir em níveis energéticos quantizados, incluindo translacionais, vibracionais, rotacionais, e eletrônicos. Entropia também é geralmente associada a aleatoriedade, dispersão de matéria e energia, e "desordem" (não em senso comum) de um sistema termodinâmico. A entropia é a entidade física que rege a segunda lei da termodinâmica, a qual estabelece que a ela deve aumentar para processos espontâneos e em sistemas isolados. Para sistemas abertos, deve-se estabelecer que a entropia do un (pt)
- Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин (впервые введён в рамках термодинамики как функция состояния термодинамической системы), обозначающий меру необратимого рассеивания энергии или бесполезности энергии (потому что не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу). Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия; термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов. (ru)
- Ентропія — фізична величина, яка використовується для опису термодинамічної системи, є однією з основних термодинамічних величин. Ентропія є функцією стану термодинамічної системи і широко використовується в термодинаміці, в тому числі технічній (аналіз роботи теплових машин і холодильних установок) і хімічній (розрахунок рівноваги хімічних реакцій). Твердження про існування і зростання ентропії та перелік її властивостей складають зміст другого закону термодинаміки. Значущість цієї величини для фізики обумовлена тим, що поряд з температурою, її використовують для опису термічних явищ і термічних властивостей макроскопічних об'єктів. Ентропію також називають мірою хаосу. (uk)
|