About: Entropy

An Entity of Type: Thing, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

Entropy is a scientific concept, as well as a measurable physical property that is most commonly associated with a state of disorder, randomness, or uncertainty. The term and the concept are used in diverse fields, from classical thermodynamics, where it was first recognized, to the microscopic description of nature in statistical physics, and to the principles of information theory. It has found far-ranging applications in chemistry and physics, in biological systems and their relation to life, in cosmology, economics, sociology, weather science, climate change, and information systems including the transmission of information in telecommunication.

Property Value
dbo:abstract
  • الإنتروبيا أو القصور الحراري (بالإنجليزية: Entropy)‏ أصل الكلمة مأخوذ عن اليونانية ومعناها «تحول». وهو مفهوم هام في التحريك الحراري، وخاصة للقانون الثاني الذي يتعامل مع العمليات الفيزيائية للأنظمة الكبيرة المكونة من جزيئات بالغة الأعداد ويبحث سلوكها كعملية تتم تلقائيا أم لا. ينص القانون الثاني للديناميكا الحرارية على مبدأ أساسي يقول: أي تغير يحدث تلقائيا في نظام فيزيائي لا بد وأن يصحبه ازدياد في مقدار «إنتروبيته». يميل أي نظام مغلق إلى التغير أو التحول تلقائيا بزيادة أنتروبيته حتى يصل إلى حالة توزيع متساو في جميع أجزائه، مثل تساويدرجة الحرارة، وتساوي الضغط، وتساوي الكثافة وغير تلك الصفات في نظام ما. وقد يحتاج النظام المعزول للوصول إلى هذا التوازن بعضا من الوقت. مثال على ذلك إلقاء قطرة من الحبر الأزرق في كوب ماء؛ نلاحظ أن قطرة الحبر تذوب وتنتشر رويدا رويدا في الماء حتي يصبح كل جزء من الماء متجانسا بما فيه من حبر وماء، فنقول أن أنتروبية النظام تزايدت (أي زادت العشوائية فيه، فلا يوجد به منطقة عالية التركيز وأخرى منخفضة التركيز، توزيع الحبر في الماء متساو). أي أن مجموع إنتروبية نقطة الحبر النقية + إنتروبية الماء النقي تكون أقل من إنتروبية النظام «حبر ذائب في ماء». وماذا عن عكس العملية ؟ أي محاولة فصل الحبر الذائب عن الماء. فهذه العملية يتبعها خفض لأنتروبيا النظام، وكما نعرف هذا لا يسير وحده طبيعيا؛ فلم نرى في الطبيعة أن يتجمع الحبر ثانيا ويحتل جزءا منفصلا في كوب الماء. ولكننا بأداء شغل يمكن فصلهما ثانيا عن بعض. مثل تسخين المخلوط وتقطيره مثلا. معنى ذلك أن خفض الإنتروبيا لا يتم إلا باستخدام طاقة خارجية، ألا وهي التسخين والتقطير. وهذا مثلا ما نستعمله في تحلية المياه لفصل الملح عن ماء البحر وإنتاج ماء عذبا. ومثال أخر طبيعي إذا وقع كوب زجاجي من أعلى المنضدة على الأرض فإنه يتحطم تماما، أي تكون انتروبيتة الكوب قد زادت. فإذا إردنا إعادة الكوب إلى أصله السليم ثانيا - وهذا لا يحدث ذاتيا في الطبيعة - فإننا لا بد وأن نزاول شغل على النظام ؛ بمعنى أننا نجمع قطع الزجاج المنكسر، ثم صهره في فرن ثم صب الزجاج المنصهر في قالب من جديد، فنحصل على الكوب ثانيا سليم. من هنا اتخذت صفة لنظام في الطبيعة أهميتها. فهي تحدد اتجاه سير عملية ما طبيعيا. وقد أصبح للإنتروبيا كأحد الصفات الطبيعية لنظام أهمية من خلال علاقة الإنتروبيا بتحول الطاقة الحرارية إلى شغل ميكانيكي. فنجدها تلعب دورا هاما في تحديد كفاءة آلات، مثل محرك الاحتراق الداخلي ومحرك الديزل وغيرها. ولوصف مدلول الإنتروبيا نفترض المثال المذكور أعلاه وهو مثال الماء ونقطة الحبر الذائبة فيه فنجد أن اختلاط نقطة الحبر بالماء سهل ويتم طبيعيا، أما إذا أردنا فصل نقطة الحبر ثانيا عن الماء ليصبح لدينا ماء نقي وحبر نقي فتلك عملية صعبة ولا تتم إلا ببذل شغل. فنقول أن حالة المخلوط له إنتروبيا كبيرة، بينما حالة الماء النقي والحبر النقي فهي حالة يكون أنتروبيتها منخفضة. وتصادفنا مثل تلك العملية عمليات يومية مثل فصل السكر عن محلول قصب السكر، إننا نقوم بذلك عن طريق تبخير المحلول، أي بتسخين المحلول وبذل شغل، أي بذل طاقة، لفصل السكر عن الماء. وأيضا الكمون الكيميائي ضمن أي نظام فيزيائي أو كيميائي يميل تلقائيا إلى خفض الطاقة الداخلية للنظام إلى أقل ما يمكن، لكي يصل النظام لحالة من التوازن. الإنتروبي ضمن هذا المفهوم هو مقدار تقدم عملية التحول والتوازن هذه. (ar)
  • Entropie je jedním ze základních a nejdůležitějších pojmů ve fyzice, teorii pravděpodobnosti a teorii informace, matematice a mnoha dalších oblastech vědy teoretické i aplikované. Vyskytuje se všude tam, kde se pracuje s pravděpodobností možných stavů daného systému. V populárních výkladech se často vyskytuje přiblížení entropie jako veličiny udávající „míru neuspořádanosti“ zkoumaného systému. Problémem tohoto vysvětlení je, že tato „definice“ používá pojem „neuspořádanost“, který je však sám nedefinovaný. Vhodnější je intuitivní představa entropie jako míry neurčitosti systému. Zatímco „ostrá“ rozdělení pravděpodobnosti (jako například prahování) mají entropii nízkou, naopak „neostrá“ či „rozmazaná“ rozdělení pravděpodobnosti mají entropii vysokou. Za pravděpodobnostní rozložení s nejvyšší entropií lze považovat normální (pro danou střední hodnotu a směrodatnou odchylku) nebo rovnoměrné (pro daný interval) rozložení. Původ slova „entropie“ je odvozen z řeckého εντροπία, "směrem k", (εν- "k" + τροπή "směrem"). (cs)
  • L'entropia és una magnitud termodinàmica definida originàriament com a criteri per a predir l'evolució dels sistemes termodinàmics. Des de la seva introducció per Rudolf Clausius l'any 1865, han aparegut diverses definicions d'entropia, la més rellevant de les quals (elaborada per Ludwig Boltzmann) va relacionar el concepte d'entropia amb el grau de desordre d'un sistema. Aquesta nova perspectiva de l'entropia va permetre estendre el concepte a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps. (ca)
  • Στη θερμοδυναμική, εντροπία είναι η έννοια μέσω της οποίας μετράται η αταξία, της οποίας η μέγιστη τιμή αντικατοπτρίζει την πλήρη (ομογενοποίηση των πάντων) και ισοδυναμεί με την παύση της ζωής. Σε μια τέτοια κατάσταση δεν υπάρχει καμία διαδικασία και δε βρίσκεται «σε λήθαργο» (κρυμμένη) κανενός είδους πληροφορία που να επιτρέπει τη ζωή, αν με κάποιο τρόπο γίνει εκ νέου παροχή μόνο ενέργειας. Αφαιρώντας την έννοια της πληροφορίας που δεν είναι αντικειμενικά μετρήσιμη (η εντροπία που εξαρτάται από αυτήν είναι επίσης μη αντικειμενικά μετρήσιμη και μάλιστα αφήνεται χωρίς μονάδες), προκύπτει μια μορφή εντροπίας που αφορά μόνο θερμικές μεταβολές, υπολογίζεται και είναι σαφώς ορισμένη: η θερμοδυναμική εντροπία. Η θερμοδυναμική εντροπία είναι εκτατική μεταβλητή ενός θερμοδυναμικού συστήματος. (el)
  • Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der SI-Einheit Joule pro Kelvin (J/K). Alle Prozesse, die innerhalb eines Systems spontan ablaufen, bewirken eine Zunahme seiner Entropie, ebenso die Zufuhr von Wärme oder Materie. Solche Prozesse sind z. B. Vermischung, Wärmeleitung, chemische Reaktion oder Umwandlung von mechanischer in thermische Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen kann die Entropie eines Systems nur durch Abgabe von Wärme oder Materie. Daher kann in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im Laufe der Zeit nur zunehmen (Zweiter Hauptsatz der Thermodynamik). Prozesse, bei denen die Entropie in einem abgeschlossenen System zunimmt, können ohne äußeren Eingriff nicht in umgekehrter zeitlicher Richtung ablaufen, sie werden als irreversibel bezeichnet. Um ein System nach einem irreversiblen Prozess wieder in den Ausgangszustand zu bringen, muss es mit seiner Umgebung gekoppelt werden, die den Zuwachs an Entropie aufnimmt und ihren eigenen Zustand dadurch auch verändert. Beispielsweise beobachten wir, dass in einem System aus einem kalten und einem heißen Körper in einer Isolierbox, d. h. in einem praktisch abgeschlossenen System, Wärmetransport einsetzt und der Temperaturunterschied verschwindet. Beide Körper werden nach einer gewissen Zeit die gleiche Temperatur haben, womit das System den Zustand größter Entropie erreicht hat. Wir beobachten in einem solchen geschlossenen System praktisch niemals das spontane Abkühlen des kälteren Körpers und das Erhitzen des wärmeren. In der statistischen Mechanik ist der Makrozustand eines Systems, der ausschließlich durch makroskopische thermodynamische Größen definiert wird, um so wahrscheinlicher, je höher die Anzahl der Mikrozustände ist, die ihn realisieren können und die durch innere Prozesse ineinander übergehen können. Diese Anzahl bestimmt daher die Entropie des Systems in diesem Makrozustand. In einem sich selbst überlassenen System in einem beliebigen Anfangszustand bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat. Dies wird umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für Unordnung“ sei. Allerdings ist Unordnung kein wohldefinierter physikalischer Begriff und hat daher auch kein physikalisches Maß. Richtiger ist es, die Entropie als ein objektives Maß für die Menge an Information zu begreifen, die benötigt würde, um von einem beobachtbaren Makrozustand auf den tatsächlich vorliegenden Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird. (de)
  • Entropio (greke τρoπή, ‚transformo‘) estas mezuro de malordo de sistemo. Ĝi estas koncepto de termodinamiko ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo). (eo)
  • En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio, también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico. La entropía es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se da de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra «entropía» procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850;​​ y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.​ (es)
  • Entropia (S ikurraz adierazi ohi da) orekako sistema termodinamikoen bat da. Oreka egoeran sistemak izan dezakeen mikroegoera (azpiegitura) kopurua eta azpiegitura horietako bakoitza izateko duen probabilitatea zenbatesten du. Entropia sistema baten antolaketa gradu moduan edo sistemaren barne energiaren aldaketaren eta tenperatura aldaketaren arteko erlazio moduan uler daiteke. entropiaren balioa handitzen da sistemak modu naturalean prozesu bat jasaten duenean. Kontzeptu hau prozesuen aztertzeko erreminta erabilgarria da. Entropia fisika eta ingeniaritzan erabiltzeaz gain informatikan eta matematikan azaltzen den kontzeptua da, eta arlo horietan guztietan entropia ondorengo ekuazioak neurtzen du: Non: * = entropia. * = azpiegitura identifikatzailea. * = azpiegitura bakoitzak gertatzeko duen probabilitatea. * = unitate sistemara moldatzeko konstantea, SI sisteman Boltzmannen konstantea kSI = 1,38066×10−23. (eu)
  • Entropy is a scientific concept, as well as a measurable physical property that is most commonly associated with a state of disorder, randomness, or uncertainty. The term and the concept are used in diverse fields, from classical thermodynamics, where it was first recognized, to the microscopic description of nature in statistical physics, and to the principles of information theory. It has found far-ranging applications in chemistry and physics, in biological systems and their relation to life, in cosmology, economics, sociology, weather science, climate change, and information systems including the transmission of information in telecommunication. The thermodynamic concept was referred to by Scottish scientist and engineer Macquorn Rankine in 1850 with the names thermodynamic function and heat-potential. In 1865, German physicist Rudolph Clausius, one of the leading founders of the field of thermodynamics, defined it as the quotient of an infinitesimal amount of heat to the instantaneous temperature. He initially described it as transformation-content, in German Verwandlungsinhalt, and later coined the term entropy from a Greek word for transformation. Referring to microscopic constitution and structure, in 1862, Clausius interpreted the concept as meaning disgregation. A consequence of entropy is that certain processes are irreversible or impossible, aside from the requirement of not violating the conservation of energy, the latter being expressed in the first law of thermodynamics. Entropy is central to the second law of thermodynamics, which states that the entropy of isolated systems left to spontaneous evolution cannot decrease with time, as they always arrive at a state of thermodynamic equilibrium, where the entropy is highest. Austrian physicist Ludwig Boltzmann explained entropy as the measure of the number of possible microscopic arrangements or states of individual atoms and molecules of a system that comply with the macroscopic condition of the system. He thereby introduced the concept of statistical disorder and probability distributions into a new field of thermodynamics, called statistical mechanics, and found the link between the microscopic interactions, which fluctuate about an average configuration, to the macroscopically observable behavior, in form of a simple logarithmic law, with a proportionality constant, the Boltzmann constant, that has become one of the defining universal constants for the modern International System of Units (SI). In 1948, Bell Labs scientist Claude Shannon developed similar statistical concepts of measuring microscopic uncertainty and multiplicity to the problem of random losses of information in telecommunication signals. Upon John von Neumann's suggestion, Shannon named this entity of missing information in analogous manner to its use in statistical mechanics as entropy, and gave birth to the field of information theory. This description has been proposed as a universal definition of the concept of entropy. (en)
  • Le terme entropie a été introduit en 1865 par Rudolf Clausius à partir d'un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation, ou d'imprédictibilité, du contenu en information d'un système. (fr)
  • Sa teirmidinimic, tomhas uimhriúil ar an mí-ord. Úsáidtear an tsiombail S di, agus is i ngiúil in aghaidh an cheilvin (J K-1) a thomhaistear í. De réir mar a mhéadaíonn an mí-ord, is amhlaidh a mhéadaíonn an eantrópacht. Mar shampla, samhlaigh córas ina bhfuil umar uisce is braon dúigh. Nuair a chuirtear an braon dúigh isteach san umar uisce, méadaítear eantrópacht an chórais mar go bhfuil mí-ord an dúigh scaipthe níos mó ná roimhe. Ní athbhaileoidh na páirteagail dúigh le chéile arís, rud a léiríonn nach laghdaíonn an eantrópacht go spontáineach. Sainmhínítear an t-athrú eantrópachta mar an méid teasa a chuirtear le córas, roinnte ar a theocht i K nuair a choinnítear an teocht tairiseach. Mar shampla, is é an méadú eantrópachta i 1 kg oighir nuair a leánn sé go huisce ag 0 °C (273 K) ná 1223 J K-1. Nuair a reoitear uisce go dtí oighear, laghdaítear eantrópacht an uisce sin, ach ar chostas an mhéadú eantrópachta sa chóras iomlán, an cuisneoir is an seomra san áireamh. Tugann an t-athrú eantrópachta léargas breise ar threo próisis atá inchúlaithe ó thaobh imchoimeád an fhuinnimh de, de réir dealraimh. Is tairiseach an eantrópacht i bpróiseas inchúlaithe de chineál amháin, agus is é sin próiseas nach suimítear nó nach ndealaítear teas lena linn. De réir dara dlí na teirmidinimice, fanann an eantrópacht gan athrú nó méadaíonn an eantrópacht i ngach uile phróiseas. (ga)
  • Entropi adalah salah satu yang mengukur energi dalam sistem per satuan temperatur yang tak dapat digunakan untuk melakukan . Mungkin manifestasi yang paling umum dari entropi adalah (mengikuti hukum termodinamika), entropi dari sebuah tertutup selalu naik dan pada kondisi transfer panas, energi panas berpindah dari komponen yang bersuhu lebih tinggi ke komponen yang bersuhu lebih rendah. Pada suatu sistem yang panasnya terisolasi, entropi hanya berjalan satu arah (bukan proses reversibel/bolak-balik). Entropi suatu sistem perlu diukur untuk menentukan bahwa energi tidak dapat dipakai untuk melakukan pada . Proses-proses ini hanya bisa dilakukan oleh energi yang sudah diubah bentuknya, dan ketika energi diubah menjadi kerja/usaha, maka secara teoretis mempunyai efisiensi maksimum tertentu. Selama kerja/usaha tersebut, entropi akan terkumpul pada sistem, yang lalu dalam bentuk panas buangan. Pada termodinamika klasik, konsep entropi didefinisikan pada hukum kedua termodinamika, yang menyatakan bahwa entropi dari selalu bertambah atau tetap konstan. Maka, entropi juga dapat menjadi ukuran kecenderungan suatu proses, apakah proses tersebut cenderung akan "terentropikan" atau akan berlangsung ke arah tertentu. Entropi juga menunjukkan bahwa energi panas selalu mengalir secara spontan dari daerah yang suhunya lebih tinggi ke daerah yang suhunya lebih rendah. Entropi termodinamika mempunyai energi dibagi temperatur, yang mempunyai Satuan Internasional joule per kelvin (J/K). Kata entropi pertama kali dicetuskan oleh Rudolf Clausius pada tahun 1865, berasal dari bahasa Yunani εντροπία [entropía], εν- [en-] (masuk) dan τροπή [tropē] (mengubah, mengonversi). (in)
  • L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità. (it)
  • エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者ののようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーはサディ・カルノーにちなんで一般に記号 S を用いて表される。 (ja)
  • 엔트로피(영어: entropy, 독일어: entropie)는 열역학적 계의 유용하지 않은 (일로 변환할 수 없는) 에너지의 흐름을 설명할 때 이용되는 상태 함수다. 통계역학적으로, 주어진 거시적 상태에 대응하는 미시적 상태의 수의 로그로 생각할 수 있다. 엔트로피는 일반적으로 보존되지 않고, 열역학 제2법칙에 따라 시간에 따라 증가한다. 독일의 물리학자 루돌프 클라우지우스가 1850년대 초에 도입하였다. 대개 기호로 라틴 대문자 S를 쓴다. (ko)
  • Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu i rozproszenia energii. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius. (pl)
  • Entropie (S) is een belangrijk begrip in de thermodynamica. Het is op het meest fundamentele niveau een maat voor de waarschijnlijkheid van een bepaalde verdeling van microtoestanden (i.e. bewegingstoestanden van elementaire bouwstenen, zoals atomen en moleculen) binnen een geïsoleerd fysisch systeem. Naarmate er minder bouwstenen en/of minder vrijheidsgraden zijn voor die microtoestanden wordt de entropie kleiner en is uiteindelijk "0" als alle bouwstenen absoluut stil staan en er ook verder geen inwendige energie meer over is. De entropie wordt maximaal als alle microtoestanden binnen gegeven vrijheidsgraden (bv. een bepaald volume) maximaal benut kunnen worden. Dat leidt bij een zekere temperatuur en druk tot een evenwichtstoestand. Een toestand waarin macroscopische grootheden als druk en temperatuur ongelijk verdeeld zijn over een volume heeft in het algemeen veel minder realisatiemogelijkheden van microtoestanden dan één met een gelijkmatige verdeling. De ongelijke verdeling van macroscopische grootheden in een geïsoleerd systeem (dat wil zeggen met een vast volume, zonder dat er energie in of uit kan) neigt dus op statistische gronden tot afvlakken van die ongelijkmatigheden. Een formele manier om dit uit te drukken is de tweede wet van de thermodynamica. De afgeleide SI-eenheid van entropie is joule per kelvin (J/K). Een toegankelijke verhandeling over het ontstaan en de betekenis van het begrip entropie is te vinden bij de Quantumuniverse. (nl)
  • Entropia é, basicamente, um conceito utilizado para medir o grau de desordem de algum sistema e é um conceito importante no ramo da física que estuda as causas e os efeitos de mudanças na temperatura, pressão e volume — e de outras grandezas termodinâmicas, conhecida como termodinâmica. A ideia de irreversibilidade, ou seja, a propriedade de um sistema de sofrer alterações que o leve de um estado inicial A para um estado final B, contudo de forma que torne-se impossível o regresso ao estado inicial, é fundamental para a compreensão da entropia. Todos têm uma compreensão intuitiva da irreversibilidade. Se alguém assiste a um filme da vida cotidiana correndo para frente e em sentido inverso, é fácil distinguir entre os dois. O filme que corre no reverso mostra coisas impossíveis acontecendo - a água pulando de um copo em um jarro acima dele, a fumaça descendo uma chaminé, a água em um vidro congelando para formar cubos de gelo, e assim por diante. Na termodinâmica, diz-se que os processos "de avanço" - despejar água de um jarro no copo, fumaça subindo uma chaminé, etc. - são "irreversíveis". Isso significa que eles não podem acontecer no sentido inverso. De fato, todos os processos físicos reais, envolvendo sistemas na vida cotidiana com muitos átomos ou moléculas, são irreversíveis. Para um processo irreversível em um sistema isolado (um sistema que não é sujeito a influência externa), a variável de estado termodinâmico conhecida como entropia nunca está diminuindo. No cotidiano, pode haver processos nos quais o aumento da entropia é praticamente inobservável, quase zero. Nesses casos, um filme do processo em sentido inverso não parece improvável. Por exemplo, em um vídeo de 1 segundo, da colisão de duas bolas de bilhar, será difícil distinguir o caso para trás e de avanço, porque o aumento da entropia durante esse período é relativamente pequeno. Na termodinâmica, diz-se que este processo é praticamente "reversível", com um aumento de entropia praticamente zero. A afirmação do fato de que a entropia de um sistema isolado nunca diminui é conhecida como a segunda lei da termodinâmica. Como dito acima, a termodinâmica clássica é uma teoria física que descreve um "sistema" em termos das variáveis termodinâmicas do sistema ou suas partes. Algumas variáveis termodinâmicas são familiares: temperatura, pressão, volume. Entropia é uma variável termodinâmica que é menos familiar e não tão fácil de entender. Um "sistema" é qualquer região de espaço que contenha matéria e energia: uma xícara de café, um copo de água gelada, um foguete, um ovo. As variáveis termodinâmicas não fornecem uma imagem "completa" do sistema. A termodinâmica não faz suposições sobre a natureza microscópica de um sistema e não descreve nem leva em consideração as posições e velocidades dos átomos e moléculas individuais que compõem o sistema. A termodinâmica trata da matéria em um sentido macroscópico; ela seria válida mesmo que a teoria atômica da matéria estivesse errada. Esta é uma qualidade importante, porque significa que o raciocínio baseado na termodinâmica é improvável que precise de alterações à medida que novos fatos sobre estrutura atômica e interações atômicas sejam encontradas. A essência da termodinâmica é incorporada nas quatro leis da termodinâmica. Infelizmente, a termodinâmica fornece pouca visão sobre o que está acontecendo no nível microscópico. A mecânica estatística é uma teoria física que explica a termodinâmica em termos microscópicos. Isso explica a termodinâmica em termos das possíveis detalhadas situações microscópicas em que o sistema pode estar quando as variáveis termodinâmicas do sistema são conhecidas. Uma configuração microscópica específica de um sistema termodinâmico que o sistema pode ocupar com certa probabilidade ao longo de suas flutuações térmicas, os "microestados", é conhecida enquanto que a descrição do sistema em termos termodinâmicos especifica a "macro-estado" do sistema. Muitos microestados diferentes podem produzir o mesmo macroestado. É importante entender que a mecânica estatística não define a temperatura, a pressão, a entropia, etc. Esses estados já estão definidos pela termodinâmica. A mecânica estatística serve para explicar a termodinâmica em termos de comportamento microscópico dos átomos e moléculas no sistema. (pt)
  • A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mede o grau de liberdade molecular de um sistema, e está associado ao seu número de configurações (ou microestados), ou seja, de quantas maneiras as partículas (átomos, íons ou moléculas) podem se distribuir em níveis energéticos quantizados, incluindo translacionais, vibracionais, rotacionais, e eletrônicos. Entropia também é geralmente associada a aleatoriedade, dispersão de matéria e energia, e "desordem" (não em senso comum) de um sistema termodinâmico. A entropia é a entidade física que rege a segunda lei da termodinâmica, a qual estabelece que a ela deve aumentar para processos espontâneos e em sistemas isolados. Para sistemas abertos, deve-se estabelecer que a entropia do universo (sistema e suas vizinhanças) deve aumentar devido ao processo espontâneo até o meio formado por sistema + vizinhanças atingir um valor máximo no estado de equilíbrio. Nesse ponto, é importante ressaltar que vizinhanças se entende como a parte do resto do universo capaz de interagir com o sistema, através de, por exemplo, trocas de calor. A segunda lei da termodinâmica foi primeiramente relacionada historicamente com processos cíclicos que convertiam calor em trabalho. Percebeu-se que energia térmica (calor) não poderia ser completamente convertida em trabalho em máquinas térmicas de motor perpétuo, sempre havendo a necessidade de perda de uma quantidade mínima de calor para um reservatório frio para que o sistema voltasse ao estado original. Dessa maneira, a variação de entropia de um processo está relacionada com a parcela de energia que não pode ser transformada em trabalho em transformações termodinâmicas a dada temperatura. Por esse fato, a mensuração da variação de entropia está diretamente relacionada a processos reversíveis, uma vez que processos no equilíbrio (ou mais próximos possíveis às condições de equilíbrio) estão associados com a máxima energia que um sistema pode perder para as vizinhanças na forma de trabalho (chamado de trabalho máximo ou trabalho útil). Portanto a energia "não disponível" é o mínimo valor que não pode seria descartado na forma de calor reversível em um processo que ocorre espontaneamente. Em outras palavras, a variação de entropia mede o grau de irreversibilidade de um processo. A parcela máxima de energia interna de um sistema pode mais ser convertida em trabalho em um dado processo pode ser determinada pelo produto da variação de energia interna do processo subtraído do produto da variação entropia S pela temperatura absoluta T do sistema no respectivo estado (desde que a temperatura constante). Essa parcela máxima de energia é conhecida como variação de energia livre de Helmholtz (ΔA). Dessa maneira, define-se a energia livre de Helmholtz como . Esse valor, assim como a entropia, é uma função de estado do sistema, e por tal dá origem a um potencial termodinâmico: a energia livre de Helmholtz do sistema em consideração. Esse valor prevê espontaneidade a processos que ocorrem a temperatura e volume contante, e deve diminuir para processos espontâneos, correspondendo, portanto, ao trabalho máximo. Para processos que ocorrem a pressão e temperatura constante, pode-se usar, analogamente, a energia livre de Gibbs, sendo útil particularmente para prever espontaneidade para reações químicas e mudanças de fase. A entropia não é uma grandeza que busca mensurar a energia ou a matéria totais encerradas pelas fronteiras do sistema termodinâmico, mas sim como esta matéria e esta energia encontram-se armazenadas e distribuídas no sistema definido por tais fronteiras. Assim, embora uma grandeza bem distinta das grandezas massa, energia interna e quantidade de matéria, a entropia de um sistema encontra-se certamente relacionada às grandezas citadas, sendo, da mesma forma que as anteriores, uma propriedade do sistema. A fim de definir-se um sistema simples especificam-se a energia interna U, a massa m - especificamente a quantidade de matéria N e a natureza das partículas que integram o sistema - e o seu volume V, e ao fazê-lo determina-se também, de forma automática, o valor da entropia S do sistema - uma grandeza escalar - no estado final a ser atingido uma vez dado tempo suficiente para que todos os processos necessários aconteçam. Assim a entropia S nos estados de equilíbrio termodinâmico é uma função das grandezas antes citadas: . Assim, segundo a Segunda Lei da Termodinâmica, processos que levam o sistema do estado inicial, logo após ter sido isolado, até o estado de final (o estado de equilíbrio termodinâmico ) ocorrem sempre de forma a provocarem aumentos ou, no limite, a manutenção, do valor da entropia do sistema. Não ocorrem processos que impliquem a diminuição da entropia total de um sistema isolado. A entropia é, pois, uma função de estado que obedece a um princípio de maximização, o "princípio da máxima entropia": a entropia em um estado de equilíbrio termodinâmico - satisfeitas as restrições impostas ao sistema - é sempre a máxima possível. Portanto, sistemas fora do equilíbrio tendem a caminhar irreversivelmente para o estado de equilíbrio, e o aumento de entropia indicará o sentido espontâneo do processo. A entropia é uma função de estado cujo valor sempre cresce durante em sistemas isolados; e quando escrita em função das grandezas extensivas energia interna U, volume V e número de elementos N - no caso dos sistemas termodinâmicos mais simples - a entropia é, assim como as respectivas Transformadas de Legendre, uma equação fundamental para o sistema termodinâmico em questão. É, então, possível, a partir desta e de todo o formalismo termodinâmico, obter-se qualquer informação física relevante para o sistema em estudo. Se expressa em função de uma ou mais grandezas que não as citadas - cônjuges a si - a expressão para a entropia S reduz-se a uma mera equação de estado. As equações de estado, embora relacionem valores de grandezas termodinâmicas nos estados de equilíbrio, não retêm em si, individualmente, todas as informações acerca do sistema. É necessário o conhecimento de todas as equações de estado para recuperar-se a completeza acerca das informações - para a partir delas se estabelecer uma equação fundamental - e via transformada de Legendre, se estabelecer qualquer das demais equações fundamentais - se desejada. (pt)
  • Entropi är en fysikalisk tillståndsfunktion, betecknad S. Inom statistisk mekanik kan den ses som ett mått på sannolikheten för att ett system skall inta ett visst tillstånd; inom termodynamik snarare som ett mått på hur mycket av värmeenergin i ett system som inte kan omvandlas till arbete. Entropibegreppet används dessutom inom statistik, informationsteori, psykologi, och teorier om sinnet. (sv)
  • Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин (впервые введён в рамках термодинамики как функция состояния термодинамической системы), обозначающий меру необратимого рассеивания энергии или бесполезности энергии (потому что не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу). Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия; термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов. В статистической физике энтропия характеризует вероятность осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. В этих областях знания энтропия определяется статистически и называется статистической или информационной энтропией. Данное определение энтропии известно также как энтропия Шеннона (в математике) и энтропия Больцмана—Гиббса (в физике). Хотя понятия термодинамической и информационной энтропии вводятся в рамках различных формализмов, они имеют общий физический смысл — логарифм числа доступных микросостояний системы. Взаимосвязь этих понятий впервые установил Людвиг Больцман. В неравновесных (необратимых) процессах энтропия также служит мерой близости состояния системы к равновесному: чем больше энтропия, тем ближе система к равновесию (в состоянии термодинамического равновесия энтропия системы максимальна). В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру сложности, хаотичности или неопределённости системы: чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия. Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией. (ru)
  • Ентроп́ія — фізична величина, яка використовується для опису термодинамічної системи, є однією з основних термодинамічних величин. Ентропія є функцією стану термодинамічної системи і широко використовується в термодинаміці, в тому числі технічній (аналіз роботи теплових машин і холодильних установок) і хімічній (розрахунок рівноваги хімічних реакцій). Твердження про існування і зростання ентропії та перелік її властивостей складають зміст другого начала термодинаміки. Значущість цієї величини для фізики обумовлена тим, що поряд з температурою, її використовують для опису термічних явищ і термічних властивостей макроскопічних об'єктів. Ентропію також називають мірою хаосу. У статистичній механіці ентропія є широкою властивістю термодинамічної системи. Вона тісно пов'язана з кількістю Ω мікроскопічних конфігурацій (відомих як мікростани), які відповідають макроскопічним величинам, що характеризують систему (наприклад, її об'єм, тиск і температура). Ентропія виражає число Ω різних конфігурацій, яке може прийняти система, визначена макроскопічними змінними. За припущенням, що кожен мікростан однаково ймовірний, ентропія S є натуральним логарифмом кількості мікростанів, помножених на сталу Больцмана. Макроскопічні системи зазвичай мають дуже велику кількість Ω можливих мікроскопічних конфігурацій. Наприклад, ентропія ідеального газу пропорційна кількості молекул газу N. Кількість молекул у двадцяти літрах газу за кімнатної температури та атмосферному тиску, дорівнює приблизно числу Авогадро. Другий закон термодинаміки говорить, що ентропія ізольованої системи ніколи не зменшується з часом. Ізольовані системи стихійно розвиваються до термодинамічної рівноваги, стану з максимальною ентропією. Неізольовані системи, такі як організми, можуть втратити ентропію за умови, що ентропія їхнього середовища зростатиме щонайменше на таку кількість, щоби загальна ентропія зростала. Тому загальна ентропія у Всесвіті зростає. Ентропія — це функція стану системи, тому зміна ентропії системи визначається її початковим і кінцевим станами. В ідеалізації того, що процес є оборотним, ентропія не змінюється, тоді як незворотні процеси завжди збільшують загальну ентропію. Оскільки це визначається кількістю випадкових мікростанів, ентропія пов'язана з кількістю додаткової інформації, потрібної для точного визначення фізичного стану системи, враховуючи її макроскопічну специфікацію. З цієї причини часто говорять, що ентропія є вираженням безладу, або випадковості системи, чи відсутності інформації про неї. Концепція ентропії відіграє центральну роль в теорії інформації. (uk)
  • 化學及熱力学中所谓熵(英語:entropy),是一種測量在動力學方面不能做功的能量總數,也就是當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算一個系統中的失序現象,也就是計算該系統混亂的程度。熵是一个描述系统状态的函数,但是经常用熵的参考值和变化量进行分析比较,它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。 (zh)
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 9891 (xsd:integer)
dbo:wikiPageLength
  • 107132 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1026266841 (xsd:integer)
dbo:wikiPageWikiLink
dbp:align
  • right (en)
dbp:baseunits
  • kg⋅m2⋅s−2⋅K−1 (en)
dbp:name
  • Entropy (en)
dbp:quote
  • Any method involving the notion of entropy, the very existence of which depends on the second law of thermodynamics, will doubtless seem to many far-fetched, and may repel beginners as obscure and difficult of comprehension. (en)
  • I thought of calling it "information", but the word was overly used, so I decided to call it "uncertainty". [...] Von Neumann told me, "You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, nobody knows what entropy really is, so in a debate you will always have the advantage." (en)
dbp:source
  • Willard Gibbs, Graphical Methods in the Thermodynamics of Fluids (en)
  • Conversation between Claude Shannon and John von Neumann regarding what name to give to the attenuation in phone-line signals (en)
dbp:symbols
  • S (en)
dbp:unit
  • joules per kelvin (en)
dbp:width
  • 30 (xsd:integer)
dbp:wikiPageUsesTemplate
dct:subject
rdf:type
rdfs:comment
  • L'entropia és una magnitud termodinàmica definida originàriament com a criteri per a predir l'evolució dels sistemes termodinàmics. Des de la seva introducció per Rudolf Clausius l'any 1865, han aparegut diverses definicions d'entropia, la més rellevant de les quals (elaborada per Ludwig Boltzmann) va relacionar el concepte d'entropia amb el grau de desordre d'un sistema. Aquesta nova perspectiva de l'entropia va permetre estendre el concepte a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps. (ca)
  • Στη θερμοδυναμική, εντροπία είναι η έννοια μέσω της οποίας μετράται η αταξία, της οποίας η μέγιστη τιμή αντικατοπτρίζει την πλήρη (ομογενοποίηση των πάντων) και ισοδυναμεί με την παύση της ζωής. Σε μια τέτοια κατάσταση δεν υπάρχει καμία διαδικασία και δε βρίσκεται «σε λήθαργο» (κρυμμένη) κανενός είδους πληροφορία που να επιτρέπει τη ζωή, αν με κάποιο τρόπο γίνει εκ νέου παροχή μόνο ενέργειας. Αφαιρώντας την έννοια της πληροφορίας που δεν είναι αντικειμενικά μετρήσιμη (η εντροπία που εξαρτάται από αυτήν είναι επίσης μη αντικειμενικά μετρήσιμη και μάλιστα αφήνεται χωρίς μονάδες), προκύπτει μια μορφή εντροπίας που αφορά μόνο θερμικές μεταβολές, υπολογίζεται και είναι σαφώς ορισμένη: η θερμοδυναμική εντροπία. Η θερμοδυναμική εντροπία είναι εκτατική μεταβλητή ενός θερμοδυναμικού συστήματος. (el)
  • Entropio (greke τρoπή, ‚transformo‘) estas mezuro de malordo de sistemo. Ĝi estas koncepto de termodinamiko ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo). (eo)
  • Le terme entropie a été introduit en 1865 par Rudolf Clausius à partir d'un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation, ou d'imprédictibilité, du contenu en information d'un système. (fr)
  • エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者ののようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーはサディ・カルノーにちなんで一般に記号 S を用いて表される。 (ja)
  • 엔트로피(영어: entropy, 독일어: entropie)는 열역학적 계의 유용하지 않은 (일로 변환할 수 없는) 에너지의 흐름을 설명할 때 이용되는 상태 함수다. 통계역학적으로, 주어진 거시적 상태에 대응하는 미시적 상태의 수의 로그로 생각할 수 있다. 엔트로피는 일반적으로 보존되지 않고, 열역학 제2법칙에 따라 시간에 따라 증가한다. 독일의 물리학자 루돌프 클라우지우스가 1850년대 초에 도입하였다. 대개 기호로 라틴 대문자 S를 쓴다. (ko)
  • Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu i rozproszenia energii. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius. (pl)
  • Entropi är en fysikalisk tillståndsfunktion, betecknad S. Inom statistisk mekanik kan den ses som ett mått på sannolikheten för att ett system skall inta ett visst tillstånd; inom termodynamik snarare som ett mått på hur mycket av värmeenergin i ett system som inte kan omvandlas till arbete. Entropibegreppet används dessutom inom statistik, informationsteori, psykologi, och teorier om sinnet. (sv)
  • 化學及熱力学中所谓熵(英語:entropy),是一種測量在動力學方面不能做功的能量總數,也就是當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算一個系統中的失序現象,也就是計算該系統混亂的程度。熵是一个描述系统状态的函数,但是经常用熵的参考值和变化量进行分析比较,它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。 (zh)
  • الإنتروبيا أو القصور الحراري (بالإنجليزية: Entropy)‏ أصل الكلمة مأخوذ عن اليونانية ومعناها «تحول». وهو مفهوم هام في التحريك الحراري، وخاصة للقانون الثاني الذي يتعامل مع العمليات الفيزيائية للأنظمة الكبيرة المكونة من جزيئات بالغة الأعداد ويبحث سلوكها كعملية تتم تلقائيا أم لا. ينص القانون الثاني للديناميكا الحرارية على مبدأ أساسي يقول: أي تغير يحدث تلقائيا في نظام فيزيائي لا بد وأن يصحبه ازدياد في مقدار «إنتروبيته». وتصادفنا مثل تلك العملية عمليات يومية مثل فصل السكر عن محلول قصب السكر، إننا نقوم بذلك عن طريق تبخير المحلول، أي بتسخين المحلول وبذل شغل، أي بذل طاقة، لفصل السكر عن الماء. (ar)
  • Entropie je jedním ze základních a nejdůležitějších pojmů ve fyzice, teorii pravděpodobnosti a teorii informace, matematice a mnoha dalších oblastech vědy teoretické i aplikované. Vyskytuje se všude tam, kde se pracuje s pravděpodobností možných stavů daného systému. Původ slova „entropie“ je odvozen z řeckého εντροπία, "směrem k", (εν- "k" + τροπή "směrem"). (cs)
  • Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der SI-Einheit Joule pro Kelvin (J/K). Alle Prozesse, die innerhalb eines Systems spontan ablaufen, bewirken eine Zunahme seiner Entropie, ebenso die Zufuhr von Wärme oder Materie. Solche Prozesse sind z. B. Vermischung, Wärmeleitung, chemische Reaktion oder Umwandlung von mechanischer in thermische Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen kann die Entropie eines Systems nur durch Abgabe von Wärme oder Materie. Daher kann in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im Laufe der Zeit nur zune (de)
  • En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio. Mide el número de microestados compatibles con el macroestado de equilibrio, también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema termodinámico. (es)
  • Entropy is a scientific concept, as well as a measurable physical property that is most commonly associated with a state of disorder, randomness, or uncertainty. The term and the concept are used in diverse fields, from classical thermodynamics, where it was first recognized, to the microscopic description of nature in statistical physics, and to the principles of information theory. It has found far-ranging applications in chemistry and physics, in biological systems and their relation to life, in cosmology, economics, sociology, weather science, climate change, and information systems including the transmission of information in telecommunication. (en)
  • Entropia (S ikurraz adierazi ohi da) orekako sistema termodinamikoen bat da. Oreka egoeran sistemak izan dezakeen mikroegoera (azpiegitura) kopurua eta azpiegitura horietako bakoitza izateko duen probabilitatea zenbatesten du. Entropia sistema baten antolaketa gradu moduan edo sistemaren barne energiaren aldaketaren eta tenperatura aldaketaren arteko erlazio moduan uler daiteke. entropiaren balioa handitzen da sistemak modu naturalean prozesu bat jasaten duenean. Kontzeptu hau prozesuen aztertzeko erreminta erabilgarria da. Non: (eu)
  • Sa teirmidinimic, tomhas uimhriúil ar an mí-ord. Úsáidtear an tsiombail S di, agus is i ngiúil in aghaidh an cheilvin (J K-1) a thomhaistear í. De réir mar a mhéadaíonn an mí-ord, is amhlaidh a mhéadaíonn an eantrópacht. Mar shampla, samhlaigh córas ina bhfuil umar uisce is braon dúigh. Nuair a chuirtear an braon dúigh isteach san umar uisce, méadaítear eantrópacht an chórais mar go bhfuil mí-ord an dúigh scaipthe níos mó ná roimhe. Ní athbhaileoidh na páirteagail dúigh le chéile arís, rud a léiríonn nach laghdaíonn an eantrópacht go spontáineach. (ga)
  • Entropi adalah salah satu yang mengukur energi dalam sistem per satuan temperatur yang tak dapat digunakan untuk melakukan . Mungkin manifestasi yang paling umum dari entropi adalah (mengikuti hukum termodinamika), entropi dari sebuah tertutup selalu naik dan pada kondisi transfer panas, energi panas berpindah dari komponen yang bersuhu lebih tinggi ke komponen yang bersuhu lebih rendah. Pada suatu sistem yang panasnya terisolasi, entropi hanya berjalan satu arah (bukan proses reversibel/bolak-balik). Entropi suatu sistem perlu diukur untuk menentukan bahwa energi tidak dapat dipakai untuk melakukan pada . Proses-proses ini hanya bisa dilakukan oleh energi yang sudah diubah bentuknya, dan ketika energi diubah menjadi kerja/usaha, maka secara teoretis mempunyai efisiensi maksimum tertent (in)
  • L'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è, in meccanica statistica, una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'Universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). (it)
  • Entropie (S) is een belangrijk begrip in de thermodynamica. Het is op het meest fundamentele niveau een maat voor de waarschijnlijkheid van een bepaalde verdeling van microtoestanden (i.e. bewegingstoestanden van elementaire bouwstenen, zoals atomen en moleculen) binnen een geïsoleerd fysisch systeem. Naarmate er minder bouwstenen en/of minder vrijheidsgraden zijn voor die microtoestanden wordt de entropie kleiner en is uiteindelijk "0" als alle bouwstenen absoluut stil staan en er ook verder geen inwendige energie meer over is. De entropie wordt maximaal als alle microtoestanden binnen gegeven vrijheidsgraden (bv. een bepaald volume) maximaal benut kunnen worden. Dat leidt bij een zekere temperatuur en druk tot een evenwichtstoestand. Een toestand waarin macroscopische grootheden als druk (nl)
  • Entropia é, basicamente, um conceito utilizado para medir o grau de desordem de algum sistema e é um conceito importante no ramo da física que estuda as causas e os efeitos de mudanças na temperatura, pressão e volume — e de outras grandezas termodinâmicas, conhecida como termodinâmica. A ideia de irreversibilidade, ou seja, a propriedade de um sistema de sofrer alterações que o leve de um estado inicial A para um estado final B, contudo de forma que torne-se impossível o regresso ao estado inicial, é fundamental para a compreensão da entropia. (pt)
  • A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mede o grau de liberdade molecular de um sistema, e está associado ao seu número de configurações (ou microestados), ou seja, de quantas maneiras as partículas (átomos, íons ou moléculas) podem se distribuir em níveis energéticos quantizados, incluindo translacionais, vibracionais, rotacionais, e eletrônicos. Entropia também é geralmente associada a aleatoriedade, dispersão de matéria e energia, e "desordem" (não em senso comum) de um sistema termodinâmico. A entropia é a entidade física que rege a segunda lei da termodinâmica, a qual estabelece que a ela deve aumentar para processos espontâneos e em sistemas isolados. Para sistemas abertos, deve-se estabelecer que a entropia do un (pt)
  • Энтропи́я (от др.-греч. ἐν «в» + τροπή «обращение; превращение») — широко используемый в естественных и точных науках термин (впервые введён в рамках термодинамики как функция состояния термодинамической системы), обозначающий меру необратимого рассеивания энергии или бесполезности энергии (потому что не всю энергию системы можно использовать для превращения в какую-нибудь полезную работу). Для понятия энтропии в данном разделе физики используют название термодинамическая энтропия; термодинамическая энтропия обычно применяется для описания равновесных (обратимых) процессов. (ru)
  • Ентроп́ія — фізична величина, яка використовується для опису термодинамічної системи, є однією з основних термодинамічних величин. Ентропія є функцією стану термодинамічної системи і широко використовується в термодинаміці, в тому числі технічній (аналіз роботи теплових машин і холодильних установок) і хімічній (розрахунок рівноваги хімічних реакцій). Твердження про існування і зростання ентропії та перелік її властивостей складають зміст другого начала термодинаміки. Значущість цієї величини для фізики обумовлена тим, що поряд з температурою, її використовують для опису термічних явищ і термічних властивостей макроскопічних об'єктів. Ентропію також називають мірою хаосу. (uk)
rdfs:label
  • Entropy (en)
  • إنتروبيا (ar)
  • Entropia (ca)
  • Entropie (cs)
  • Entropie (de)
  • Εντροπία (el)
  • Entropio (eo)
  • Entropia (eu)
  • Entropía (es)
  • Entropie (thermodynamique) (fr)
  • Eantrópacht (ga)
  • Entropi (in)
  • エントロピー (ja)
  • Entropia (it)
  • 엔트로피 (ko)
  • Entropie (nl)
  • Entropia (pl)
  • Entropia (pt)
  • Introdução não técnica à entropia (pt)
  • Энтропия (ru)
  • Entropi (sv)
  • Ентропія (uk)
  • (zh)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:associatedBand of
is dbo:associatedMusicalArtist of
is dbo:knownFor of
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is dbp:associatedActs of
is gold:hypernym of
is rdfs:seeAlso of
is owl:differentFrom of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License