dbo:abstract
|
- Cache only memory architecture (COMA) is a computer memory organization for use in multiprocessors in which the local memories (typically DRAM) at each node are used as cache. This is in contrast to using the local memories as actual main memory, as in NUMA organizations. In NUMA, each address in the global address space is typically assigned a fixed home node. When processors access some data, a copy is made in their local cache, but space remains allocated in the home node. Instead, with COMA, there is no home. An access from a remote node may cause that data to migrate. Compared to NUMA, this reduces the number of redundant copies and may allow more efficient use of the memory resources. On the other hand, it raises problems of how to find a particular data (there is no longer a home node) and what to do if a local memory fills up (migrating some data into the local memory then needs to evict some other data, which doesn't have a home to go to). Hardware memory coherence mechanisms are typically used to implement the migration. A huge body of research has explored these issues. Various forms of directories, policies for maintaining free space in the local memories, migration policies, and policies for read-only copies have been developed. Hybrid NUMA-COMA organizations have also been proposed, such as Reactive NUMA, which allows pages to start in NUMA mode and switch to COMA mode if appropriate and is implemented in the Sun Microsystems's WildFire. A software-based Hybrid NUMA-COMA implementation was proposed and implemented by ScaleMP, allowing for the creation of a shared-memory multiprocessor system out of a cluster of commodity nodes. (en)
- COMA (абревіатура від англ. Cache-only memory architecture) — організація комп'ютерної пам'яті у багатопроцесорних системах, в яких локальна оперативна пам'ять вузла (зазвичай DRAM) використовується виключно як кеш-пам'ять. Така архітектура є відмінною від NUMA (абревіатура від англ. Non-uniform memory access), де оперативна пам'ять вузлів є основною пам'яттю. У NUMA кожній адресі в глобальному адресному просторі, як правило, призначається фіксований домашній вузол. Коли процесори отримують доступ до деяких даних, копія створюється в їх локальному кеші, але простір залишається виділеним в домашньому вузлі. На противагу цьому, у COMA немає домашнього вузла. Доступ з віддаленого вузла може привести до того, що дані мігрують. У порівнянні з NUMA це зменшує кількість надлишкових копій та може дозволити більш ефективно використовувати ресурси пам'яті. З іншого боку, це створює проблеми при знаходженні конкретної інформації (більше немає домашнього вузла) і що робити, якщо локальна пам'ять заповнюється (при міграції деяких даних в локальній пам'яті, потрібно буде виселити деякі інші дані, які не мають домашнього вузла, куди могли б піти[що?]). Як правило, для реалізації міграції використовуються апаратні механізми когерентності пам'яті. Величезний обсяг досліджень був виконаний над цим питанням. Були розроблені різні форми каталогів, лінія поведінки для підтримки вільного простору в локальній пам'яті, міграційна лінії поведінки, а також лінії поведінки щодо копій тільки для читання . Були також запропоновані гібридні організації, такі як Reactive NUMA, які дозволяють сторінками запуститися в режимі NUMA і переключитися в режим в разі потреби, це реалізовано в компанії Sun Microsystems. Програмне забезпечення на основі гібридної реалізації було запропоноване і реалізоване , що дозволяє створення багатопроцесорної системи з спільною пам'яттю в кластері товарних[що?] вузлів. (uk)
- 全高速缓存访存模型(Cache-Only Memory Access, COMA) 是NUMA的一种特例,其中各处理器节点无存储层次之分,各个处理器所带的高速缓存就构成的全部地址空间。 (zh)
|