Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Traducido
Traducido
1697
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
como la secuenciacin gentica y la investigacin nuclear se asegur de que
podemos asumir con seguridad que la produccin masiva de datos y
el procesamiento en paralelo (MPP) contina su crecimiento exponencial. La
integracin con, servidor privado y las nubes pblicas
consolidacin y virtualizacin completa, ms amplio conjunto de habilidades del
personal de los centros de datos son todas las consecuencias de esta
crecimiento explosivo. Esto plantea nuevas tareas y exige el uso de diferentes
estrategias para centros de datos arquitectos (DC).
Un aumento en el consumo de energa en los pases en desarrollo constituye el
principal problema para el desarrollo del mercado de CC. Energacostes relacionados representan aproximadamente la mitad del total de los costes
de mantenimiento del servidor de titularidad del centro de datos, mientras que la
mayor parte de
stos van a la disposicin de fuente de alimentacin y enfriamiento a los
servidores. En general, podemos considerar dos enfoques
1698
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
Segn algunas estimaciones, el porcentaje de ciclos de CPU en todo el mundo
gastado en ella hasta el 35%, lo que suena creble
si se incluye a ciencia cierta que un motor de bsqueda no slo consume recursos
de su propio hardware, sino tambin cada uno y
indexa de cada servidor.
Esto caus una tendencia prominente en el centro de datos de diseo de la
arquitectura - un cambio de hardware potente y caro
(como los mainframes hace 25 aos y HP Superdome aproximadamente una
dcada ms tarde) hacia una multitud de servidores simples.
Estas arquitecturas masivamente paralelos pueden utilizar cualquiera de las
granjas de servidores de Google como construidos a partir de hardware off-theshelf o
bloques de propiedad que forman lo que hoy se llama un superordenador (IBM
Blue Gene).
2.1. Las tendencias en la investigacin y el desarrollo de sistemas operativos
Mientras que el hardware del ordenador evolucion a la gran velocidad, la
alternativa software, obviamente, no poda seguir siendo el
mismo. Los primeros sistemas operativos creadores no importa mucho para la
arquitectura - nadie en el momento tuvo la experiencia de
escribir un programa de este tamao. Como una de las consecuencias, aquellos
primeros sistemas operativos carecan de la estructura modular, y cada uno
cada subrutina podra ser llamado a nivel mundial, y toda la cosa fue un gran
"burbuja" monoltica. Este escalado hecho y
expansin extremadamente difcil. En primer lugar OS / 360 de liberacin se
llev 5 aos y 5.000 personas para escribir y acumul poco ms de 1
millones de lneas de cdigo. Masillas su sucesor, lanzado en 1975, ya se
aument a 20 millones de lneas. Parece que la estrategia
sin revisin radical de los principios de diseo ms avances eran imposibles.
De este modo, naci paradigma modular, y la mayor parte del desarrollo de la
ingeniera de software moderno todava se basa en
o sus variantes. El diseo modular de forma natural llev a mdulos con
funcionalidad similar agrupacin juntos y
estratificacin del sistema operativo en el modelo jerrquico. Prcticamente todos
los sistemas operativos modernos pueden subdividirse en los niveles siguientes:
El soporte de hardware
Cdigo dependiente de la mquina
Mecanismos del ncleo comn
Administrador de recursos
Las llamadas al sistema API
Utilidades.
A veces los niveles estn divididos o combinados, como en nanokernel y
microkernel arquitecturas, a veces incluso
intercambi (exokernel), pero la estructura bsica sigue siendo ms o menos lo
mismo.
Otro gran paso en el diseo de sistemas operativos se hizo cuando IBM introdujo
su mquina virtual que abstrae la
hardware subyacente desde el nivel ms bajo del sistema operativo. Este hecho
posible particin del sistema y ejecutar varias
instancias de sistema operativo en la mquina fsica nica. Durante un par de
dcadas, la virtualizacin era exclusivamente de mainframe
funcin, pero era, por supuesto, obligado a propagar en el mundo de servidores y
estaciones de trabajo. Hoy en da, todos los principales procesador
fabricantes incluyen soporte de hardware de virtualizacin (VT para x86,
TrustZone para ARM) [4].
Se estima que hoy en da ms del 50 por ciento de todas las cargas de trabajo de
servidores estn virtualizados y esta cifra se prev que
llegar a 86 por ciento en 2016 [5]. La virtualizacin tambin se extendi a las
estaciones de trabajo donde se usa ampliamente como un bajo costo
software alternativo para la adquisicin de hardware dedicado para fines de
prueba y depuracin. ltimamente, se hizo an ms a la
segmentos mviles e integrados del mercado, en el que sus beneficios son la
seguridad, la interoperabilidad y, una vez ms,
ahorrando en hardware - un procesador multimedia virtual puede ser tan bueno
como un ser fsico dedicado [6].
La virtualizacin permite compartir recursos computacionales y la particin, pero
tambin se necesita para exactamente el
contrario - no cortar el sistema existente en un nmero de mquinas virtuales,
pero la unin de los recursos de mltiples
sistemas en un "supersistema" ms grande y ms potente.
Mientras que las tcnicas de virtualizacin son hoy en da en todas partes,
incluyendo el apoyo de f
bricantes de hardware '(VT para
pgina 4
1699
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
2.2. Infraestructuras de computacin en paralelo modernas para sistemas
distribuidos
Tal vez todas las tareas distribuidas se pueden poner en dos grandes grupos procesamiento de transacciones y la supercomputacin. En
procesamiento transaccional que hay una necesidad para el servicio de gran
cantidad de datos y / o transacciones, mientras que la supercomputacin
implica actividad principalmente computacional. En otras palabras, uno es
pesado en la I / O, el otro - en ciclos de CPU. Estos das,
la mayora de procesamiento de transacciones se realiza en clusters Linux que
ejecutan MapReduce o alguna de sus variantes. Web
aplicaciones de bsqueda son los principales responsables de la emergencia de
las infraestructuras de computacin en paralelo como Google de
MapReduce [6] y Microsoft Dryad [7].
Por otro lado, los superordenadores (o, ms bien, los ordenadores MPP)
incluyen tradicionalmente dos sabores de nodos - I / O
los nodos de interconexin del mundo exterior y que ejecutan Linux y nodos de
computacin con casi siempre de propiedad y
bien elaborado para los ncleos de rendimiento que minimizan
cuidadosamente eventos caros, como el cambio de contexto y la memoria
cach
paliza. IBM Compute Node Kernel (CNK) utilizado en la familia Blue Gene de los
superordenadores de IBM es uno de esos
ejemplo.
Linux se meti en su posicin dominante en la industria debido a la enorme
masa de cdigo - casi todos y cada uno
solicitud ha sido portado all, y, tampoco en el pasado, debido al apoyo de los
gigantes de la industria como IBM, HP y
Cisco. Otros jugadores notables incluyen la familia de FreeBSD / OpenBSD /
NetBSD de sistemas, QNX, VxWorks y, por supuesto
Microsoft Windows.
3. funciona relacionadas: sistema operativo Plan9 revisited
Hoy en da, hay un renovado inters en otro OS - Plan9 y sus derivados. Plan9
es un sistema operativo desarrollado en el
a finales de 1980 y principios de 1990 en el AT & T Bell Laboratories por el
grupo de investigadores e ingenieros que inclua algunos
de los creadores originales de UNIX [8]. En el diseo Plan9 intentaron
enderezar lo que pensaban que sali mal
con UNIX y sus antepasados. Cuando se introdujo a la comunidad USENIX en
1992, que fue recibido muy bien, con
Las opiniones van desde cuidadosamente optimista pura y simple de xtasis
que calificaron de "un asesino en UNIX".
Matar UNIX no sucedi - slo podemos adivinar por razones especficas, pero el
consenso general parece ser que
mientras que Plan 9 fue en muchos aspectos superior a UNIX, slo pudo ganar
masa crtica en las mejoras [9].
En pocas palabras, UNIX y Linux ms tarde como uno de los sabores de UNIX
no eran tan elegante, pero todava lo suficientemente bueno. Esta,
combinado con su base masiva de cdigo, lo puso en una posicin lder en la
industria.
Plan9, por su parte, encontr un nicho como aficionado y de
investigacin. Tiene, como cualquier gran proyecto, pero de bajo rendimiento
hara, un pequeo pero dedicado ejrcito de seguidores. Su pedigr impecable y
elegante diseo tambin hacen que sea muy
atractiva como asignatura en los cursos de sistemas operativos en el mundo
acadmico.
Plan9 se basa en tres principios fundamentales:
Todos los recursos son nombrados y representados por archivos en un sistema
de archivos
Hay un protocolo estndar, 9P, para acceder a archivos a travs de fronteras
de nodo
Sistemas de archivos separados se pueden unir en un nico espacio de
nombres privado
Era aplicacin agresiva de estos principios que mantiene constantemente Plan9
compacto y robusto a travs de la
aos y uno de los principales de la reanudacin en el perodo 2000-2004.
Algunas de las caractersticas Plan9 result ser tan atractivo que fueron
adoptados por UniXS corriente principal. Ms prominente
de ellos es, quizs, una interfaz de sistema de archivos del sistema de
estadsticas de cada proceso - / proc. / Sys sistema de archivos de Linux
que representa los recursos de todo el sistema es otro guio en esa
direccin. Plan9 tambin introdujo UTF-8, una completa y honesta
norte
2
conjunto de nativos y compiladores cruzados y enlazadores para todas las
arquitecturas soportadas, y algunas otras innovaciones ingeniosas.
Una
de
las
cualidades
ms
atractivas
Plan9
es
compacto. Histricamente, se introdujo "cuando las cosas eran
su
tamao
pequea "e incluso Linux no era el monstruo que conocemos hoy. Y es que
logr mantenerse a travs de los aos. por
ejemplo, la huella de gato residente utilidad en Ubuntu 12.04 es 384 K,
mientras que su contraparte Plan9 es slo 11K. Similar,
la mayora de las utilidades estndares comunes para ambos sistemas
muestran un factor de 10 a 30 en el consumo de memoria. Uso de la cach es,
de
Por supuesto, mucho ms conservador en Plan9, as, que es an ms
importante para el rendimiento.
Este paradigma 'apretado y robusto' hizo Plan9 un candidato atractivo para el
diseo de sistemas embebidos. All estaba
siempre, aunque marginalmente, presente sobre todo en equipos y sistemas de
almacenamiento en red. el distribuida
pgina 5
1700
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
modelo de procesamiento de Plan 9 es muy eficaz y flexible, y es atractivo para
los sistemas embebidos. El protocolo 9P
es til para la comunicacin entre sistemas. El espacio de nombres privado de
Plan 9 tambin permite flexible y segura descentralizada
procesamiento en sistemas embebidos. Plan 9 se puede ejecutar en varias
plataformas de hardware y es muy adecuado para la construccin de grandes
Paso
CNK
Plam9
Plan9 (pgina 1 MB)
1 3.7539700e-01
3.8000000e-01
3.7000000e-01
101
3.7721600e-01
1.6400000e + 00
3.8000000e-01
201
3.7926300e-01
3.4000000e + 00
3.8000000e-01
301
3.8119100e-01
4.9100000e + 00
3.8000000e-01
401
3.8263600e-01
6.3300000e + 00
3.8000000e-01
501
3.8444400e-01
7.7600000e + 00
3.9000000e-01
601
3.8661300e-01
7.7700000e + 00
3.9000000e-01
701
3.8841900e-01
7.7600000e + 00
3.9000000e-01
801
3.8986500e-01
7.7600000e + 00
3.9000000e-01
901
3.9227500e-01
7.7700000e + 00
3.9000000e-01
1001
3.9444300e-01
1.1750000e + 01
4.0000000e-01
Esto, de hecho, anim a los equipos que participan en estos proyectos para
proceder a disear superordenador basado Plan 9
sistema operativo llamado NIX [13, 14].
3.2. OS Plan9 en la plataforma de servidor
Otro proyecto reciente es Clive [15] dirigido para su uso en sistemas
distribuidos y en la nube. Arquitectura Clive se basa
en Plan9 y Nix. Clive est escrito en Go y se distribuye bajo licencia MIT. Es de
particular inters porque
es:
Pgina 6
1701
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
pgina 7
1702
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
Aqu podemos considerar dos enfoques diferentes para la solucin de este
problema. En primer lugar, un APE (ANSI / POSIX
Paquete de Medio Ambiente) fue desarrollado para 9front - la mejor
aproximacin de las interfaces del sistema a la POSIX.
En segundo lugar, nuestro equipo en asociacin con la compaa AltLinux
emprender esfuerzos de portar Linux en el brazo y
plataforma de servidores basados en MicroTCA (ARM, MicroTCA). Esto permitir
la adaptacin fcil de la plataforma de destino de
muchas aplicaciones desarrolladas para Linux, incluyendo las aplicaciones de
racimo tradicionales.
Cabe sealar que muchas caractersticas tiles de diseo 9front se adaptaron a
Linux. Esto se aplica, en particular, a
el protocolo IXP, cuyo uso en Linux es ahora posible a nivel de los sistemas de
archivos montados que permite
intercambio de archivos entre Linux y 9front.
pgina 8
1703
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
dedicada a compuestos y grupo. En el modo de generacin de carga, genera
peticiones con la sustitucin de la
nmero cada vez mayor, que los dgitos se utilizan como componentes de la
ruta de acceso al recurso.
Escenario de probar la eficacia de equilibrio de carga requiere la creacin de
una jerarqua de archivos nginx uno cada
nodo, de manera que sus trayectorias con respecto al directorio raz de nginx
coinciden con la consulta, formado por httpperf, y por lo tanto la
cantidad total de datos excedera el tamao de RAM en cada nodo. En estas
condiciones, el subsistema de disco
se convierte en el cuello de botella en cada nodo, de modo que se hace posible
evaluar el efecto de paralelizacin carga de trabajo.
La misma secuencia de solicitudes no recurrentes se presenta al equilibrador y
para el nodo separado, y el
resultados se comparan. Rendimiento de los componentes individuales y de
todo el clster tambin se prueba por repetida
(idnticos) consultas. Httpperf le permite ajustar el nmero de solicitudes por
unidad de tiempo, lo que se refleja en el
nmero de peticiones procesadas en paralelo. El ensayo se lleva a cabo por
separado para la descarga de archivos de gran tamao y para
la descarga de archivos pequeos, lo que permite identificar los diversos
posibles cuellos de botella en el nginx portado. En esta prueba
escenario, todo el contenido del archivo en la memoria cach del sistema
operativo, y un subsistema de disco ya no es una
embotellamiento.
Queramos que los resultados de la prueba para reflejar el rendimiento de las
soluciones de servidor (nginx), en oposicin a la totalidad
complejo de cliente-servidor. Para esto, se requiere ya sea una presencia de
varios equipos cliente, para generar las consultas
simultneamente, o el uso de un sistema para la ejecucin del cliente, que
supera significativamente a un conjunto de todos los nodos del
clster (sin subsistema de disco que no es utilizado por el cliente de forma
activa). Para este estudio, hemos optado por la segunda
solucin.
5.2. Resultados experimentales
La principal medida de los resultados de la prueba es el nmero de solicitudes
procesadas por segundo para las estadsticas finales
httpperf. Otro indicador, que es de gran importancia en el anlisis de contenido
de las cargas de trabajo y los cuellos de botella la tasa de solicitudes (nmero de solicitudes por unidad de tiempo) en el que el
servidor se detiene con xito manejar todas las conexiones.
prueba
pgina 9
1704
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
Tabla 2. Resultados de las pruebas de la nube / IX.
Prueba
serie
conexiones por
seg., promedio
El tiempo de prueba, seg.,
promedio
La tasa de respuesta, mn.,
conn./sec.
La tasa de respuesta,
mod .., conn./sec.
La tasa de respuesta,
max., conn./sec.
,%
1 128,0
1022.6
74,4
128,0
196,8
7.4
2 324,0
404.9
177,6
321,6
477,6
9.8
3 416,0
315,3
258,2
414,4
592,0
11,4
4 1054,6
125,9
750,0
1051,6
1591,2
16,8
Sin embargo, en el curso de los experimentos, hemos puesto de manifiesto
algunos problemas asociados con las conexiones
entre los servidores nginx que se ejecutan en la nube / IX. Cuando los
servidores estaban sobrecargados con solicitudes, nginx descartado
paquetes (conexin rechazada) que llegaron durante la fase de procesamiento
de la conexin de otro paquete. Una trama de la
pgina 10
1705
Yury Leokhin y Peter Panfilov / Ingeniera Procedia 100 (2015) 1696 - 1705
6. Conclusin
En este trabajo, presentamos el enfoque de diseo de sistemas distribuidos,
que se basa en el Plan del sistema operativo 9
modelo. Hemos demostrado que los principios subyacentes de Plan 9 OS son
muy adecuadas para capturar el procesamiento distribuido
mecanismos derivados de modelos de clculo paralelo y distribuido /
programacin utilizando superordenador, servidor
plataformas, y ejemplos de sistemas embebidos distribuidos. La definicin de la
interfaz del sistema de ficheros, junto con la facilidad
de comunicacin entre nodos mediante la manipulacin de los espacios de
nombres de archivos permite la generacin de aplicaciones sin tener en cuenta
la
peculiaridades de su hardware sistema de ordenador subyacente. Ellos pueden
ejecutar en cualquier lugar en cualquier nodo en el sistema, en
cualquier arquitectura. Esto resulta en la aplicacin que
funcionalidad completa capturada por el modelo, as como la
incluye
la
a:
http://www.businessweek.com/stories/2008-04-22/virtualization-goesmobilebusinessweek-business-news-stock-market-and-financial-advice.
[6] J. Dean, S. Ghemawat, MapReduce: Tratamiento de datos simplificado en los
racimos grandes, 6
pp.
221-225. Disponible
en:
http://plan9.bell-
basado
en
[16] SJ Mullender, PG Jansen, Tiempo real en un sistema operativo real, en: (et
al.) Herbert, Andrew James (Eds.), Computer Systems. Teora,
Tecnologa y Aplicaciones, Springer, 2004, pp. 213-221. ISBN 978-0-387-218212. [ PDF ].
[17] SJ Mullender, J. McKie, Tiempo real en Plan 9, en: Actas del 1er Taller
Internacional sobre Plan 9 (IWP9), 4-5 de diciembre de 2006,
Madrid, Espaa. [ PDF ].
[18] Y. Sato, K. Maruyama, LP49: Sistemas de Respaldo OS basado en L4 y Plan
9, en: Actas del 4