Entropy is a measure of the energy of a system that is unavailable for doing useful work. In statistical thermodynamics, entropy (usual symbol S) is a measure of the number of microscopic configurations Ω that correspond to a thermodynamic system in a state specified by certain macroscopic variables. Specifically, assuming that each of the microscopic configurations is equally probable, the entropy of the system is the natural logarithm of that number of configurations, multiplied by the Boltzmann constant kB (which provides consistency with the original thermodynamic concept of entropy discussed below, and gives entropy the dimension of energy divided by temperature). Formally,

Property Value
dbo:abstract
  • Entropy is a measure of the energy of a system that is unavailable for doing useful work. In statistical thermodynamics, entropy (usual symbol S) is a measure of the number of microscopic configurations Ω that correspond to a thermodynamic system in a state specified by certain macroscopic variables. Specifically, assuming that each of the microscopic configurations is equally probable, the entropy of the system is the natural logarithm of that number of configurations, multiplied by the Boltzmann constant kB (which provides consistency with the original thermodynamic concept of entropy discussed below, and gives entropy the dimension of energy divided by temperature). Formally, For example, gas in a container with known volume, pressure, and temperature could have an enormous number of possible configurations of the individual gas molecules, and which configuration the gas is actually in may be regarded as random. Hence, entropy can be understood as a measure of molecular disorder within a macroscopic system. The second law of thermodynamics states that an isolated system's entropy never decreases. Such systems spontaneously evolve towards thermodynamic equilibrium, the state with maximum entropy. Non-isolated systems may lose entropy, provided their environment's entropy increases by at least that decrement. Since entropy is a state function, the change in entropy of a system is determined by its initial and final states. This applies whether the process is reversible or irreversible. However, irreversible processes increase the combined entropy of the system and its environment. The change in entropy (ΔS) of a system was originally defined for a thermodynamically reversible process as , where T is the absolute temperature of the system, dividing an incremental reversible transfer of heat into that system (δQrev). (If heat is transferred out the sign would be reversed giving a decrease in entropy of the system.) The above definition is sometimes called the macroscopic definition of entropy because it can be used without regard to any microscopic description of the contents of a system. The concept of entropy has been found to be generally useful and has several other formulations. Entropy was discovered when it was noticed to be a quantity that behaves as a function of state, as a consequence of the second law of thermodynamics. Entropy is an extensive property. It has the dimension of energy divided by temperature, which has a unit of joules per kelvin (J K−1) in the International System of Units (or kg m2 s−2 K−1 in terms of base units). But the entropy of a pure substance is usually given as an intensive property—either entropy per unit mass (SI unit: J K−1 kg−1) or entropy per unit amount of substance (SI unit: J K−1 mol−1). The absolute entropy (S rather than ΔS) was defined later, using either statistical mechanics or the third law of thermodynamics, an otherwise arbitrary additive constant is fixed such that the entropy at absolute zero is zero. In statistical mechanics this reflects that the ground state of a system is generally non-degenerate and only one microscopic configuration corresponds to it. In the modern microscopic interpretation of entropy in statistical mechanics, entropy is the amount of additional information needed to specify the exact physical state of a system, given its thermodynamic specification. Understanding the role of thermodynamic entropy in various processes requires an understanding of how and why that information changes as the system evolves from its initial to its final condition. It is often said that entropy is an expression of the disorder, or randomness of a system, or of our lack of information about it. The second law is now often seen as an expression of the fundamental postulate of statistical mechanics through the modern definition of entropy. (en)
  • 25بك المحتوى هنا ينقصه الاستشهاد بمصادر. يرجى إيراد مصادر موثوق بها. أي معلومات غير موثقة يمكن التشكيك بها وإزالتها. (فبراير 2016) الإنتروبيا أو الاعتلاج أو العشوائية أصل الكلمة مأخوذ عن اليونانية ومعناها "تحول" . وهو مفهوم هام في التحريك الحراري، وخاصة للقانون الثاني الذي يتعامل مع العمليات الفيزيائية للأنظمة الكبيرة المكونة من جزيئات بالغة الأعداد ويبحث سلوكها كعملية تتم تلقائيا أم لا. ينص القانون الثاني للديناميكا الحرارية على مبدأ أساسي يقول : أي تغير يحدث تلقائيا في نظام فيزيائي لا بد وأن يصحبه ازدياد في مقدار "إنتروبيته". يميل أي نظام مغلق إلى التغير أو التحول تلقائيا بزيادة أنتروبيته حتى يصل إلى حالة توزيع متساو في جميع أجزائه، مثل تساويدرجة الحرارة ، وتساوي الضغط ، وتساوي الكثافة وغير تلك الصفات. وقد يحتاج النظام المعزول الوصول إلى هذا التوازن بعضا من الوقت. مثال على ذلك إلقاء قطرة من الحبر الأزرق في كوب ماء، نلاحظ أن قطرة الحبر تذوب وتنتشر رويدا رويدا في الماء حتي يصبح كل جزء من الماء متجانسا بما فيه من حبر وماء، فنقول أن أنتروبة النظام تزايدت. أي أن مجموع إنتروبية نقطة الحبر النقية + إنتروبية الماء النقية تكون أقل من إنتروبية النظام "حبر ذائب في ماء" . وقد أصبح للإنتروبيا كأحد الصفات الطبيعية لنظام أهمية من خلال علاقة الإنتروبيا بتحول الطاقة الحرارية إلى شغل ميكانيكي. فنجدها تلعب دورا هاما في تحديد كفاءة آلات ، مثل محرك الاحتراق الداخلي ومحرك الديزل وغيرها. ولوصف مدلول الإنتروبيا نفترض المثال المذكور أعلاه وهو مثال الماء ونقطة الحبر الذائبة فيه فنجد أن اختلاط نقطة الحبر بالماء سهل ويتم طبيعيا، أما إذا أردنا فصل نقطة الحبر ثانيا عن الماء ليصبح لدينا ماء نقي وحبر نقي فتلك عملية صعبة ولا تتم إلا ببذل شغل. فنقول أن حالة المخلوط له إنتروبيا كبيرة، بينما حالة الماء النقي والحبر النقي فهي حالة يكون أنتروبيتها منخفضة. وتصادفنا مثل تلك العملية عمليات يومية مثل فصل السكر عن محلول قصب السكر، إننا نقوم بذلك عن طريق تبخير المحلول، أي بتسخين المحلول وبذل شغل، أي بذل طاقة، لفصل السكر عن الماء. وأيضا الكمون الكيميائي ضمن أي نظام فيزيائي أو كيميائي يميل تلقائيا إلى خفض الطاقة الداخلية للنظام إلى أقل ما يمكن ، لكي يصل النظام لحالة من التوازن. الإنتروبي ضمن هذا المفهوم هو مقدار تقدم عملية التحول والتوازن هذه. (ar)
  • En termodinámica, la entropía (simbolizada como S) es una magnitud física que para un sistema termodinámico en equilibrio mide el número de microestados compatibles con el macroestado de equilibrio, también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema. La entropía es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se da de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850; y Ludwig Boltzmann, quien encontró en 1877 la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad. (es)
  • En thermodynamique classique, l'entropie est une fonction d'état extensive, introduite en 1865 par Rudolf Clausius dans le cadre du deuxième principe de la thermodynamique, d'après les travaux de Sadi Carnot. Clausius a montré que le rapport (où est la quantité de chaleur reçue par un système thermodynamique à la température ) est inférieur ou égal à la variation d'une fonction d’état qu'il a appelée entropie, notée , et dont l'unité est le joule par kelvin (J/K). La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail ; c'est-à-dire libérée de façon incohérente. Ludwig Boltzmann a exprimé l'entropie statistique en fonction du nombre d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d'équilibre d'un système donné au niveau macroscopique : (formule de Boltzmann). Cette nouvelle définition de l'entropie n'est pas contradictoire avec celle de Clausius.Les deux expressions de l'entropie résultent simplement de deux points de vue différents, selon que l'on considère le système thermodynamique au niveau macroscopique ou au niveau microscopique. Plus récemment, le concept d'entropie a été généralisé, et étendu à de nombreux domaines, tels que par exemple : * l'entropie de Shannon dans le cadre de la théorie de l'information en informatique ; * l'entropie topologique, ainsi que l'entropie métrique de Kolmogorov-Sinaï, dans le cadre de la théorie des systèmes dynamiques en mathématiques. (fr)
  • Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der SI-Einheit Joule pro Kelvin, also J/K. Die in einem System vorhandene Entropie ändert sich bei Aufnahme oder Abgabe von Wärme. In einem abgeschlossenen System, bei dem es keinen Wärme- oder Materieaustausch mit der Umgebung gibt, kann die Entropie nach dem zweiten Hauptsatz der Thermodynamik nicht abnehmen. Mit anderen Worten: Entropie kann nicht vernichtet werden. Es kann im System jedoch Entropie entstehen. Prozesse, bei denen dies geschieht, werden als irreversibel bezeichnet, d. h., sie sind – ohne äußeres Zutun – unumkehrbar. Entropie entsteht z. B. dadurch, dass mechanische Energie durch Reibung in thermische Energie umgewandelt wird. Da die Umkehrung dieses Prozesses nicht möglich ist, spricht man auch von einer „Energieentwertung“. In der statistischen Mechanik stellt die Entropie eines Makrozustands ein Maß für die Zahl der zugänglichen, energetisch gleichwertigen Mikrozustände dar. Makrozustände höherer Entropie haben mehr Mikrozustände und sind daher statistisch wahrscheinlicher als Zustände niedrigerer Entropie. Folglich bewirken die inneren Vorgänge in einem sich selbst überlassenen System im statistischen Mittel eine Annäherung an den Makrozustand, der bei gleicher Energie die höchstmögliche Entropie hat. Da in einem anfänglich gut geordneten System durch innere Prozesse die Ordnung nur abnehmen kann, wird diese Interpretation des Entropiebegriffs umgangssprachlich häufig dadurch umschrieben, dass Entropie ein „Maß für Unordnung“ sei. Allerdings ist Unordnung kein physikalischer Begriff und hat daher auch kein physikalisches Maß. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen, obwohl auch Unkenntnis kein physikalisch definierter Begriff ist. (de)
  • In meccanica statistica l'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). Nella termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema. L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema. Il concetto di entropia ha potuto grazie a questa generalizzazione essere esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione e conoscere quindi una vastissima popolarità. (it)
  • エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者のエドウィン・ジェインズのようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーは一般に記号 S を用いて表される。 (ja)
  • Entropie (S) is een belangrijk begrip in de thermodynamica. Het is op het fundamenteelste niveau een maat voor de wanorde of de ontaarding in een systeem, of liever de waarschijnlijkheid, als het aantal mogelijke moleculaire configuraties van een macroscopische toestand (in termen van macroscopische grootheden druk, temperatuur, etc.) gedeeld door het totale aantal mogelijke moleculaire configuraties. Een toestand waarin macroscopische grootheden als druk en temperatuur ongelijk verdeeld zijn over een volume heeft in het algemeen veel minder realisatiemogelijkheden dan één met een gelijkmatige verdeling. De ongelijke verdeling van macroscopische grootheden in een geïsoleerd systeem (dat wil zeggen met een vast volume, zonder dat er energie in of uit kan) neigt dus op statistische gronden tot afvlakken van die ongelijkmatigheden. Een formele manier om dit uit te drukken is de tweede wet van de thermodynamica. Het begrip entropie werd geïntroduceerd door Rudolf Clausius. (nl)
  • Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius. (pl)
  • A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mensura o grau de irreversibilidade de um sistema, encontrando-se geralmente associada ao que denomina-se por "desordem", não em senso comum , de um sistema termodinâmico. Em acordo com a segunda lei da termodinâmica, trabalho pode ser completamente convertido em calor, e por tal em energia térmica, mas energia térmica não pode ser completamente convertida em trabalho. Com a entropia procura-se mensurar a parcela de energia que não pode mais ser transformada em trabalho em transformações termodinâmicas à dada temperatura. A parcela de energia interna de um sistema em seu equilíbrio termodinâmico que não pode mais ser convertida em trabalho à temperatura de equilíbrio pode ser determinada pelo produto da entropia S pela temperatura absoluta T do sistema no respectivo estado, encontrando-se disponível à execução de trabalho por tal apenas a parcela da energia interna U em consideração. A parcela de energia interna F que pode ser convertida em trabalho, assim como a entropia, é uma função de estado do sistema, e por tal dá origem a um potencial termodinâmico: a energia livre de Helmholtz do sistema em consideração. A entropia é uma grandeza que busca mensurar não a energia tampouco a matéria totais encerrada pelas fronteiras do sistema termodinâmico, mas sim como esta matéria e esta energia encontram-se armazenadas e distribuídas no sistema definido por tais fronteiras. Assim, embora uma grandeza bem distinta das grandezas massa, energia interna e quantidade de matéria, a entropia de um sistema encontra-se certamente relacionada às grandezas citadas, sendo, da mesma forma que as anteriores, uma propriedade do sistema. A fim de definir-se um sistema simples especificam-se a energia interna U, a massa m - especificamente a quantidade de matéria N e a natureza das partículas que integram o sistema - e o seu volume V, e ao fazê-lo determina-se também, de forma automática, o valor da entropia S do sistema - uma grandeza escalar - no estado final a ser atingido uma vez dado tempo suficiente para que todos os processos necessários aconteçam. Assim a entropia S nos estados de equilíbrio termodinâmico é uma função das grandezas antes citadas: . Ver-se-á que os processos que levam o sistema do estado inicial logo após ter sido isolado até o estado de final - o estado de equilíbrio termodinâmico - ocorrem sempre de forma a provocarem aumentos - ou no limite a manutenção - do valor da entropia do sistema. Não ocorrem processos que impliquem a diminuição da entropia total de um sistema isolado. A entropia é, pois, uma função de estado que obedece a um princípio de maximização, o "princípio da máxima entropia": a entropia em um estado de equilíbrio termodinâmico - satisfeitas as restrições impostas ao sistema - é sempre a máxima possível. A entropia é uma função de estado cujo valor sempre cresce durante processos naturais em sistemas isolados; e quando escrita em função das grandezas extensivas energia interna U, volume V e número de elementos N - no caso dos sistemas termodinâmicos mais simples - a entropia é, assim como as respectivas Transformadas de Legendre, uma equação fundamental para o sistema termodinâmico em questão. É, então, possível, a partir desta e de todo o formalismo termodinâmico, obter-se qualquer informação física relevante para o sistema em estudo. Se expressa em função de uma ou mais grandezas que não as citadas - cônjugas a si - a expressão para a entropia S reduz-se a uma mera equação de estado. As equações de estado, embora relacionem valores de grandezas termodinâmicas nos estados de equilíbrio, não retêm em si, individualmente, todas as informações acerca do sistema. É necessário o conhecimento de todas as equações de estado para recuperar-se a completeza acerca das informações - para a partir delas se estabelecer uma equação fundamental - e via transformada de Legendre, se estabelecer qualquer das demais equações fundamentais - se desejada. (pt)
  • Энтропи́я (от др.-греч. ἐντροπία — поворот, превращение) — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия является мерой вероятности осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы (например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации). Другой интерпретацией этого понятия является информационная ёмкость системы. С данной интерпретацией связан тот факт, что создатель понятия энтропии в теории информации Клод Шеннон сначала хотел назвать эту величину информацией. В широком смысле, в каком слово часто употребляется в быту, энтропия означает меру неупорядоченности системы; чем меньше элементы системы подчинены какому-либо порядку, тем выше энтропия. Величина, противоположная энтропии, именуется негэнтропией или, реже, экстропией. (ru)
  • 化學及热力学中所指的熵(英语:Entropy),是一種測量在動力學方面不能做功的能量總數,也就是當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算一個系統中的失序現象,也就是計算該系統混亂的程度。熵是一个描述系统状态的函数,但是经常用熵的参考值和变化量进行分析比较,它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。 (zh)
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 9891 (xsd:integer)
dbo:wikiPageRevisionID
  • 744457852 (xsd:integer)
dbp:align
  • left
  • right
dbp:quote
  • Any method involving the notion of entropy, the very existence of which depends on the second law of thermodynamics, will doubtless seem to many far-fetched, and may repel beginners as obscure and difficult of comprehension.
  • I thought of calling it "information", but the word was overly used, so I decided to call it "uncertainty". [...] Von Neumann told me, "You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, nobody knows what entropy really is, so in a debate you will always have the advantage."
dbp:source
  • Willard Gibbs, Graphical Methods in the Thermodynamics of Fluids
  • Conversation between Claude Shannon and John von Neumann regarding what name to give to the attenuation in phone-line signals
dbp:width
  • 30 (xsd:integer)
dct:subject
rdf:type
rdfs:comment
  • エントロピー(英: entropy)は、熱力学および統計力学において定義される示量性の状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において系の微視的な「乱雑さ」を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者のエドウィン・ジェインズのようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者もいる。 エントロピーはエネルギーを温度で割った次元を持ち、SIにおける単位はジュール毎ケルビン(記号: J/K)である。エントロピーと同じ次元を持つ量として熱容量がある。エントロピーは一般に記号 S を用いて表される。 (ja)
  • Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu. Jest wielkością ekstensywną. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius. (pl)
  • 化學及热力学中所指的熵(英语:Entropy),是一種測量在動力學方面不能做功的能量總數,也就是當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算一個系統中的失序現象,也就是計算該系統混亂的程度。熵是一个描述系统状态的函数,但是经常用熵的参考值和变化量进行分析比较,它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。 (zh)
  • Entropy is a measure of the energy of a system that is unavailable for doing useful work. In statistical thermodynamics, entropy (usual symbol S) is a measure of the number of microscopic configurations Ω that correspond to a thermodynamic system in a state specified by certain macroscopic variables. Specifically, assuming that each of the microscopic configurations is equally probable, the entropy of the system is the natural logarithm of that number of configurations, multiplied by the Boltzmann constant kB (which provides consistency with the original thermodynamic concept of entropy discussed below, and gives entropy the dimension of energy divided by temperature). Formally, (en)
  • 25بك المحتوى هنا ينقصه الاستشهاد بمصادر. يرجى إيراد مصادر موثوق بها. أي معلومات غير موثقة يمكن التشكيك بها وإزالتها. (فبراير 2016) الإنتروبيا أو الاعتلاج أو العشوائية أصل الكلمة مأخوذ عن اليونانية ومعناها "تحول" . وهو مفهوم هام في التحريك الحراري، وخاصة للقانون الثاني الذي يتعامل مع العمليات الفيزيائية للأنظمة الكبيرة المكونة من جزيئات بالغة الأعداد ويبحث سلوكها كعملية تتم تلقائيا أم لا. ينص القانون الثاني للديناميكا الحرارية على مبدأ أساسي يقول : أي تغير يحدث تلقائيا في نظام فيزيائي لا بد وأن يصحبه ازدياد في مقدار "إنتروبيته". (ar)
  • En termodinámica, la entropía (simbolizada como S) es una magnitud física que para un sistema termodinámico en equilibrio mide el número de microestados compatibles con el macroestado de equilibrio, también se puede decir que mide el grado de organización del sistema, o que es la razón de un incremento entre energía interna frente a un incremento de temperatura del sistema. (es)
  • Die Entropie (Kunstwort altgriechisch ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße mit der SI-Einheit Joule pro Kelvin, also J/K. (de)
  • In meccanica statistica l'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule fratto kelvin (J/K). (it)
  • Entropie (S) is een belangrijk begrip in de thermodynamica. Het is op het fundamenteelste niveau een maat voor de wanorde of de ontaarding in een systeem, of liever de waarschijnlijkheid, als het aantal mogelijke moleculaire configuraties van een macroscopische toestand (in termen van macroscopische grootheden druk, temperatuur, etc.) gedeeld door het totale aantal mogelijke moleculaire configuraties. Een toestand waarin macroscopische grootheden als druk en temperatuur ongelijk verdeeld zijn over een volume heeft in het algemeen veel minder realisatiemogelijkheden dan één met een gelijkmatige verdeling. De ongelijke verdeling van macroscopische grootheden in een geïsoleerd systeem (dat wil zeggen met een vast volume, zonder dat er energie in of uit kan) neigt dus op statistische gronden t (nl)
  • En thermodynamique classique, l'entropie est une fonction d'état extensive, introduite en 1865 par Rudolf Clausius dans le cadre du deuxième principe de la thermodynamique, d'après les travaux de Sadi Carnot. Clausius a montré que le rapport (où est la quantité de chaleur reçue par un système thermodynamique à la température ) est inférieur ou égal à la variation d'une fonction d’état qu'il a appelée entropie, notée , et dont l'unité est le joule par kelvin (J/K). (formule de Boltzmann). Plus récemment, le concept d'entropie a été généralisé, et étendu à de nombreux domaines, tels que par exemple : (fr)
  • A entropia (do grego εντροπία, entropía), unidade [J/K] (joules por kelvin), é uma grandeza termodinâmica que mensura o grau de irreversibilidade de um sistema, encontrando-se geralmente associada ao que denomina-se por "desordem", não em senso comum , de um sistema termodinâmico. Em acordo com a segunda lei da termodinâmica, trabalho pode ser completamente convertido em calor, e por tal em energia térmica, mas energia térmica não pode ser completamente convertida em trabalho. Com a entropia procura-se mensurar a parcela de energia que não pode mais ser transformada em trabalho em transformações termodinâmicas à dada temperatura. (pt)
  • Энтропи́я (от др.-греч. ἐντροπία — поворот, превращение) — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия является мерой вероятности осуществления какого-либо макроскопического состояния. Кроме физики, термин широко употребляется в математике: теории информации и математической статистике. Энтропия может интерпретироваться как мера неопределённости (неупорядоченности) некоторой системы (например, какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации). Другой интерпретацией этого понятия является информационная ёмкость системы. С данной интерпретацией связан тот фа (ru)
rdfs:label
  • Entropy (en)
  • إنتروبيا (ar)
  • Entropie (de)
  • Entropía (es)
  • Entropie (thermodynamique) (fr)
  • Entropia (it)
  • エントロピー (ja)
  • Entropie (nl)
  • Entropia (pl)
  • Entropia (pt)
  • Энтропия (ru)
  • (zh)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:knownFor of
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is http://purl.org/linguistics/gold/hypernym of
is rdfs:seeAlso of
is owl:differentFrom of
is foaf:primaryTopic of