P. 1
Coeficiente de correlación de Spearman

Coeficiente de correlación de Spearman

|Views: 639|Likes:
Publicado porEugenia Meneses

More info:

Published by: Eugenia Meneses on Jun 18, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

08/10/2014

pdf

text

original

Coeficiente de correlación de Spearman

El coeficiente de correlación de Spearman es menos sensible que el de Pearson para los valores muy lejos de lo esperado. En este ejemplo: Pearson = 0.30706 Spearman = 0.76270

En estadística, el coeficiente de correlación de Spearman, ρ (ro) es una medida de la correlación (la asociación o interdependencia) entre dos variables aleatorias continuas. Para calcular ρ, los datos son ordenados y reemplazados por su respectivo orden. El estadístico ρ viene dado por la expresión:

donde D es la diferencia entre los correspondientes estadísticos de orden de x - y. N es el número de parejas. Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son pocos, se puede ignorar tal circunstancia Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a la distribución t de Student

La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación de Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas respectivamente, 0 cero, significa no correlación pero no independencia. La tau de Kendall es un coeficiente de correlación por rangos, inversiones entre dos ordenaciones de una distribución normal bivariante.

Contenido
[ocultar]

    

1 Ejemplo 2 Determinando la significación estadística 3 Véase también 4 Enlaces externos 5 Fuente

[editar]Ejemplo
Los datos brutos usados en este ejemplo se ven debajo.

CI Horas de TV a la semana

106 7

86 0

100 28

100 50

99 28

103 28

97 20

113 12

113 7

110 17

El primer paso es ordenar los datos de la primera columna. Después, se crean dos columnas más. Ambas son para ordenar (establecer un lugar en la lista) de las dos primeras columnas. Después se crea una columna "d" que muestra las diferencias entre las dos columnas de orden. Finalmente, se crea otra columna "d2". Esta última es sólo la columna "d" al cuadrado. Después de realizar todo esto con los datos del ejemplo, se debería acabar con algo como lo siguiente:

CI (i) Horas de TV a la semana (t) orden(i) orden(t) d

d2

86

0

1

1

0

0

97

20

2

6

4

16

99

28

3

8

5

25

100

50

4.5

10

5.5 30.25

100

28

4.5

8

3.5 12.25

103

28

6

8

2

4

106

7

7

2.5

4.5 20.25

110

17

8

5

3

9

113

7

9.5

2.5

7

49

113

12

9.5

4

5.5 30.25

Nótese como el número de orden de los valores que son idénticos es la media de los números de orden que les corresponderían si no lo fueran. Los valores de la columna d2 pueden ser sumados para averiguar de n es 10. Así que esos valores pueden ser sustituídos en la fórmula. . El valor

De lo que resulta ρ = − 0.187878787879.

[editar]Determinando

la significación estadística

La aproximación moderna al problema de averiguar si un valor observado de ρ es significativamente diferente de cero (siempre tendremos -1 ≤ ρ ≤ 1) es calcular la probabilidad de que sea mayor o igual que el ρ esperado, dada la hipótesis nula, utilizando un permutation test. Esta aproximación es casi siempre superior a los métodos tradicionales, a no ser que el data set sea tan grande que la potencia informática no sea suficiente para generar permutaciones (poco probable con la informática moderna), o a no ser que sea difícil crear un algoritmo para crear permutaciones que sean lógicas bajo la hipótesis nula en el caso particular de que se trate (aunque normalmente estos algoritmos no ofrecen dificultad). Aunque el test de permutación es a menudo trivial para cualquiera con recursos informáticos y experiencia en programación, todavía se usan ampliamente los métodos tradicionales para obtener significación. La aproximación más básica es comparar el ρ observado con tablas publicadas para varios niveles de significación. Es una solución simple si la significación sólo necesita saberse dentro de cierto rango, o ser menor de un determinado valor, mientras haya tablas disponibles que especifiquen los rangos adecuados. Más abajo hay una referencia a una tabla semejante. Sin embargo, generar estas tablas es computacionalmente intensivo y a lo largo de los años se han usado complicados trucos matemáticos para generar tablas para tamaños de muestra cada vez mayores, de modo que no es práctico para la mayoría extender las tablas existentes. Una aproximación alternativa para tamaños de muestra suficientemente grandes es una aproximación a la distribución t de Student. Para tamaños de muestra más grandes que unos 20 individuos, la variable

tiene una distribución t de Student en el caso nulo (correlación cero). En el caso no nulo (ej: para averiguar si un ρ observado es significativamente diferente a un valor teórico o si dos ρs observados difieren significativamente, los tests son mucho menos potentes, pero puede utilizarse de nuevo la distribución t. Una generalización del coeficiente de Spearman es útil en la situación en la cual hay tres o más condiciones, varios individuos son observados en cada una de ellas, y predecimos que las observaciones tendrán un orden en particular. Por ejemplo, un conjunto de individuos pueden tener tres oportunidades para intentar cierta tarea, y predecimos que su habilidad mejorará de intento en intento. Un test de la significación de la tendencia entre las condiciones en esta situación fue desarrollado por E. B. Page y normalmente suele conocerse como Page's trend test para alternativas ordenadas.

RHO, TAU Y R DE PEARSON: UN PROGRAMA VISUAL BASIC PARA SU TRANSFORMACIÓN E INTERVALOS DE CONFIANZA César Merino Soto * Universidad Privada San Juan Bautista & Asociación Civil Sembrar, Perú José Livia Segovia Universidad Nacional Federico Villarreal, Perú Resumen El presente artículo presenta un programa informático VB para el cálculo de la trasformación de correlaciones no paramétricas (Rho de Spearman y Tau de Kendall) a R de Pearson, y sus intervalos de confianza. Los estudios de la cobertura y poder estadístico de estos procedimientos han sido satisfactorios y reportados (Rupinkski y Dunlap, 1996; Caruso & Cliff, 1997; Long & Cliff, 1997); y mediante el

programa informático presentado, el análisis correlacional en las investigaciones psicológicas y educativas pueden ampliar sus estrategias de comprobación de hipótesis de descripción y comparación. Se discuten sus usos en contextos aplicados. Palabras clave: correlación, Spearman, Kendall, Pearson, programa de computadora, Visual Basic. Abstract The present article reporting a VB computer program for compute the transformation of non parametric correlations (Spearman’s Rho and Kendall’s Tau) to Pearson’s R, and their confidence intervals. The study of their coverage and statistical power of these procedures was satisfactory and they reported in (Rupinkski y Dunlap, 1996; Caruso & Cliff, 1997; Long & Cliff, 1997); and for mean of the present computer program, the correlational analysis in the educational and psychological research can have a major range of strategies for testing research hypothesis or for descriptive and comparative purposes. We discuss their uses in applied contexts. Keywords: correlation, Spearman, Kendall, Pearson, computer program, Visual Basic. Introducción Es un hecho conocido que las técnicas paramétricas tienen más popularidad y aceptación entre los profesionales e investigadores que las técnicas no paramétricas. Pero aparentemente los usuarios con menos o más distorsionada información sobre el uso de las técnicas estadísticas forman heurísticas cognitivas (Shanteau, 1989) para tomar decisiones sobre los procedimientos de análisis de datos, aplicando “a ojo cerrado” las técnicas paramétricas sin una previa evaluación de los presupuestos que se exigen para su apropiado uso, argumentando su representatividad, disponibilidad y su popularidad. Por ejemplo, aún para el aparentemente

sencillo uso de la correlación lineal de Pearson, se deberían evaluar varios presupuestos antes * Psicólogo licenciado, docente en la Universidad Privada San Juan Bautista y miembro de la Asociación Civil Sembrar. Dirección postal: Enrique Palacios 430, Chorrillos, Lima 9, Peru. Email: sikayax@yahoo.com.ar; elsikander@yahoo.com.ar. 146 Merino y Livia de considerar su aplicación en la investigación correlacional (Onwuebnuzie & Daniel, 2002), tales como la normalidad de la distribución de los datos y la presencia de valores extremos. Para cada técnica paramétrica, hay un equivalente no paramétrico (Harwell, & Serlin, 1989), y actualmente hay un creciente avance de alternativas no paramétricas que son comunicados y recibidos en la comunidad científica con interés, aunque tal información permanece oscura y menos difundida fuera de los límites de los investigadores debido a que tales desarrollos generalmente se publican en revistas que requieren del lector un avanzado conocimiento de estadística. Pero varios aportes casi inalcanzables ya han sido reportados en revistas de ciencias sociales y naturales, y se han convertido en estrategias sencillas de implementar manualmente como el enfoque de transformación por rangos en el modelo general lineal (Harwell, & Serlin, 1989) o el uso de medidas de distancia entre las variables en lugar de correlaciones lineales implementados por programas de computadora ad hoc (Anderson, 2001a; 2001b). Como otras técnicas estadísticas no paramétricas, las correlaciones ordinales son generalmente ignoradas en los planes de análisis de datos psicológicos y sociales (Caruso & Cliff, 1997), aún considerando que los presupuestos para la aplicación de técnicas estadísticas paramétricas son excepcionalmente cumplimentadas por los datos en mano y la gran mayoría no consigue tener una distribución normal (Micceri, 1988). Aún con las ventajas que tienen las correlaciones ordinales sobre la tradicional correlación de Pearson, en relación a su menor sensibilidad a valores extremos, invariabilidad bajo transformaciones monotónicas de las variables y mejor ajuste de los objetivos del investigador al análisis ordinal (Caruso & Cliff, 1997), la r de

Pearson tiene una completa preferencia entre los investigadores sociales y educacionales. Mientras los datos contengan moderadas desviaciones de la normalidad y otras condiciones que pondrían cuestionar la aplicabilidad de técnicas paramétricas, el uso de procedimientos paramétricos será siempre una opción razonable y con mayor potencia para rechazar la hipótesis nula. Pero el uso de los resultados correlacionales muchas veces exigirá hacer comparables nuestros resultados con aquellos reportados por los estudios correlacionales. Por ejemplo, el uso de correlaciones de Pearson para los estudios de validez es la norma más que excepción; por lo tanto, si un investigador planea un estudio de validación mediante el uso de coeficientes de correlación, debe anticipar el hecho que las correlacionales no paramétricas no son frecuentemente reportadas; y por lo tanto, la comparación entre los coeficientes de validez se hace difícil. Posteriormente, un lector que halla interesante un estudio correlacional, verá un desafío no superable si los resultados correlaciones que pretende usar se encuentran bajo la forma de correlaciones no paramétricas, como Tau de Kendall (τxy) o rho de Spearman (ρs ). Felizmente, existen estrategias de conversión de correlaciones no paramétricas hacia la correlación de Pearson. Estas de hallan en los textos de Kendall (1962) y Pearson (1907), que muy probablemente sean inaccesibles para el consumidor de artículos de investigación. Imaginemos que un investigador ha aplicado correlaciones ordinales a sus datos y sus resultados han sido publicados; luego, otro investigador quiere utilizar los valores numéricos para un estudio meta-analítico, de generalización de la validez o evaluar las diferencias entre Rho, Tau y r de Pearson 147 sus hallazgos y los publicados. Los métodos cuantitativos de meta-análisis han superado largamente las tradicionales las revisiones discursivas sobre los hallazgos científicos que fueron comunes pero contaminados del sesgo del autor (Field, 2001). Otro aspecto que ha emergido en la metodología de análisis en datos sociales es el uso de

medidas adicionales a las pruebas de hipótesis estadísticas; esta incorporación incluye la magnitud del efecto y los intervalos de confianza. Este último, ya recomendado por Cronbach en los años 70 (Finch, Thomason y Cumming, 2002). Uno de los más impactantes recomendaciones sobre el uso juicioso del análisis estadísticos aplicado a la psicología se ha efectuado recientemente por Task Force on Statistical Inference (Wilkinson y Task Force on Statistical Inference, 1999), resaltando el uso de los intervalos de confianza. Las nuevas reformas en la presentación de resultados estadísticos ha tenido lugar en medicina y sigue un camino muy lento en psicología (Fidler, Cumming, Thomason y Burgman, 2004), y en ellas se requiere la presencia de los intervalos de confianza en los estadísticos relevantes calculados. ¿Cómo incorporar esta información al monto de hallazgos comúnmente expresados en términos de correlaciones r de Pearson? Una alternativa menos apropiada es utilizar los coeficientes ordinales tratándolos como si fueran correlaciones r de Pearson. Esto sería como utilizar el enfoque “haré que no importa” (Nunnally y Bernstein, 1995), que es una conveniencia muy arbitraria y cuestionable. Peor aún sería calcular los intervalos de confianza para r de Pearson usando correlaciones no paramétricas. Otra alternativa más apropiada es utilizar las ecuaciones presentadas en Rupinski & Dunlap (1996), Caruso y Cliff (1997) y Long y Cliff (1997) para expresar las relaciones asintóticas entre rho de Spearman y tau de Kendall con r de Pearson, y la creación de intervalos de confianza, pero estos procedimientos requieren del cálculo manual y son proclives a errores. Nuestros objetivos en la presentación de este artículo son 1) la descripción de las ecuaciones que sirven para derivar la correlación Pearson y los intervalos de confianza para las correlaciones no paramétricas más comunes; y 2) la presentación de un programa informático que facilite los cálculos involucrados. Una breve y necesaria revisión técnica se presentaremos primero, para luego discutir los usos en situaciones aplicadas y de investigación científica. Transformación de Rho y Tau a R de Pearson

Siguiendo el desarrollo de Kendall (1962), Rupinski y Dunlap (1996) reportaron más recientemente la ecuación para estimar r de Pearson desde τ de Kendall, que incluye dos constantes, phi y el denominador igual a 2: ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = 2 r sen π τ (1) Por otro lado, la transformación de rs de Spearman a r de Pearson es: 148 Merino y Livia ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ = 6 r 2sen r s

π (2) En su estudio de simulación sobre la estabilidad de estas transformaciones, Rupinski y Dunlap (1996) hallaron que las correlaciones τ y rs convertidos a r de Pearson tienden a tener errores estándar más grandes que los correspondientes r de Pearson, y por lo tanto influyen en la varianza muestral de los coeficientes de validez y sus intervalos de confianza; pero notaron también que el porcentaje de incremento es numéricamente insignificante y se presenta en las fracciones cuyo impacto práctico no es importante (0.008, por ejemplo). De este modo, las diferencias en el error estándar no son realmente de preocupación en la práctica cuando se usan estas transformaciones. Como concluyen Rupinski y Dunlap (1996), las ecuaciones 1 y 2 dan al investigador valores que tienden a proporcionar estimaciones r de Pearson aceptablemente exactos en el proceso de transformación, y en consecuencia permiten obtener valores confiables para su uso en estudios meta-analíticos y de generalización de la validez. Intervalos de confianza para Tau y Rho Para probar la significancia estadística de de τ, se hace uso de la varianza de muestreo, que es común hallarlo en varios textos de estadística, especialmente Siegel, (1970): () 9n( ) n 1 2 2n 5 var () − + τ = (3) Entonces, la varianza anterior sirve para construir el intervalo de confianza de Tau (τ), que

tiene la siguiente forma bajo la formulación de la varianza de muestreo de Siegel (1970): /2(t) x var α τ ± (4) En Caruso & Cliff (1997) y Long & Cliff (1997), se examinaron varios métodos para obtener intervalos de confianza para ambos tipos de correlaciones bajo algunas condiciones de distribución poblacional, variación de la magnitud de la correlación (0.00, 0.19, 0.41, 0.71) y tamaño de la muestra (en pasos de 10, 50 y 200 sujetos). En tal estudio de simulación, se utilizaron dos criterios: el poder estadístico, definido como la proporción de veces en que τ y rs siendo igual a cero (Ho: τ = 0; Ho: rs = 0), es rechazado (error alfa) estando fuera del intervalo de confianza estimado; y el criterio de cobertura, definido como la proporción de veces en que el parámetro estuvo contenido en el intervalo de confianza estimado (controlando el error beta). Los resultados de estas simulaciones estadísticas computacionalmente intensas mostraron que entre varios métodos, uno con un mejor poder y cobertura fue la transformación de los coeficientes por la transformación z de Fisher. Se concluyó que la transformación z de Fisher para ambas correlaciones, rs y τ, es el método recomendado y aún vigente en la investigación conductual. Rho, Tau y r de Pearson 149 La transformación Fisher de τ de Kendall, zt, tiene la siguiente forma tradicionalmente presentada: ⎥ ⎦ ⎤

⎢ ⎣ ⎡ − + = τ τ 1 1 log 2 1 z t e (5) Tal transformación busca normalizar la distribución de muestreo de τ, y aproximarla a una distribución asintótica con distribución normal. Por otro lado, la varianza empírica de zt es: n4 0.437 var( z ) t − = (6) Integrando la forma de la ecuación (5) y (6) con (7), el intervalo de confianza Fisher se construye con la ecuación

n4 0.437 zz t/2 − ±α (7) Sin embargo, los límites superior e inferior del intervalo hasta aquí calculados están bajo la forma de puntajes z, así que debe aplicarse un procedimiento pocas veces reportado en los libros de estadística: la inversa de la transformación Fisher para retornar de zt a τ es: () e1 e1 t t 2z 2z + − τ = (8) Para el coeficiente Rho de Spearman, los pasos son los mismos, pero cambia la formulación de la estimación de la varianza de muestreo después de los ajustes hechos por Caruso y Cliff (1997). Ajustando la transformación z de Fisher, Caruso y Cliff (1997) hallaron que una mejor estimación de la varianza de zs se puede obtener añadiendo unas constantes: 6n 4 n

z n2 1.0 var(z ) s + + − = (9) Finalmente, la ecuación (9) da el componente más preciso para la construcción del intervalo de confianza para rs, que tiene la forma de la ecuación 7, pero reemplazando la varianza de zt por la de zs (9); para transformar los valores zs obtenidos de regreso a rs, se aplica la inversa presentada en la ecuación (8). Usos del programa Las aproximaciones de las correlaciones no paramétricas más comunes a r de Pearson, y sus intervalos de confianza, ofrece varias ventajas para el investigador en curso de indagaciones de tipo aplicado o básico. Por ejemplo, dentro del análisis correlacional para describir relaciones lineales, el uso de las correlaciones Pearson es la regla más que la excepción. Cuando el interés sea comparar correlaciones Pearson, pero se han obtenido estudios con correlaciones no paramétricas estimadas en la muestra, se pueden calcular 150 Merino y Livia manualmente las transformaciones con las ecuaciones presentadas aquí, pero el programa puede hacer las transformaciones necesarias y minimizar el error de cálculo. Rupinski y Dunlap (1996) desarrollaron tablas de conversión, pero un programa informático hace más portátil la información en el contexto de la comunicación virtual y el análisis interactivo.

Por otro lado, el uso de estas transformaciones es oportuno cuando se examinan reportes de investigación en que se aplicó algún miembro de la familia de correlaciones no paramétricas, particularmente la correlación ρs y τxy, y deban ser consideradas para posteriores estudios de meta-análisis. Por otro lado, al saber que la transformación de un coeficiente no paramétrico a uno paramétrico de uso común mantiene un sesgo tolerable, la inclusión de las correlaciones no paramétricas para comparar sus magnitudes puede ser efectuada sin problemas. Por ejemplo, se podría comparar correlaciones obtenidas de dos o más muestras bajo la hipótesis nula de igualdad en sus magnitudes; específicamente, teniendo que la validez concurrente entre una prueba de impacto al estrés con autoconcepto académico en niños de 4to, 5to y 6to grado ha sido 0.30, 0.43 y 0.40 respectivamente; y la correlación calculada en los niños de 4to es no paramétrica (rs de Spearman), el primer acto es traducirla a r de Pearson, y luego incluirlo en las ecuaciones pertinentes para hallar si las correlaciones son iguales en la población; estas ecuaciones pueden ser halladas en Jaccard et al. (1990). Luego, la creación de intervalos de confianza para ellas no es más que un cálculo sin complejidades teniendo una calculadora, una hoja de cálculo o una programa ad hoc como el presentado en este artículo. El cálculo de los intervalos de confianza para las correlaciones del ejemplo puede servir a su vez, como información para decidir si son lo suficientemente diferentes entre ellas en un nivel específico de confianza (90%, 95% ó 99%); el valor z crítico más común en la distribución normal es 1.96 para el nivel de 95%. Estos intervalos de confianza pueden determinar si las correlaciones de nuestro ejemplo son lo suficientemente alejadas entre sí como para considerarlas diferentes en la población. La estimación poblacional de las correlaciones ρs y τxy se hace posible con la creación de intervalos de confianza para los estadísticos muestrales. Pero el lector debe tener en mente que

la estimación de los intervalos no da una información en términos absolutos, pues sólo ofrece una probabilidad de contener la cantidad en estudio en la población (Howell, 1997; May, Masson, & Hunter, 1990). Como en un párrafo anterior se apuntó, aplicar el enfoque de intervalos de confianza para correlaciones no paramétricas (ayudado por el programa) facilita hacer una comparación entre coeficientes de dos estudios diferentes o del mismo estudio. Esto no se llevaría por una prueba formal de prueba de hipótesis, ya que la información contenida en el intervalo conduce a juzgar el grado en que dos coeficientes se traslapan o se mantienen lo suficientemente alejados como para concluir que son diferentes. Como es usual en los procedimientos de pruebas de hipótesis, el nivel de confianza debe ser establecido previamente. Debemos anotar que hay otros métodos para crear intervalos de confianza que son computacionalmente intensos, y que no hacen presupuestos distribucionales sobre los datos o Rho, Tau y r de Pearson 151 de la estadística que está siendo calculada, especialmente para distribuciones en los intervalos de confianza que son difíciles de estimar (Haukoos & Lewis, 2005). Actualmente, el uso de intervalos de confianza ya es altamente recomendado por editores de revistas científicas (Haukoos & Lewis, 2005), pero su desarrollo para estadísticos correlacionales no paramétricos es raramente citado en los libros de estadística para graduados y no graduados; con las ecuaciones y el programa aquí presentado, se puede cumplir con las actuales exigencias de publicación científica. La aplicación de los intervalos de confianza para los métodos no paramétricos lleva a estos métodos a estar en la atención de los investigadores dejando de lado sus aparentes desventajas, particularmente referidas a su menor potencia estadística por el uso de ranking en lugar de datos crudos y el poco conocimiento que sobre ellos se tiene; esta situación es fortalecida por que diversos paquetes estadísticos tampoco tienden a reportar intervalos de confianza para procedimientos no paramétricos. Desde hace más de medio siglo que se ha hallado que hay poca pérdida de eficiencia al usar datos

expresados en rankings en lugar de datos crudos (Stuart, 1954), particularmente para distribuciones continuas como la normal y la uniforme. Respecto a la construcción de un intervalo de confianza, esta expresa solamente una forma de incertidumbre, que resulta de la naturaleza finita de la muestra bajo estudio. Aplicando tal estimación a una muestra representativa, en que se incluye un proceso aleatorio en la selección de las unidades definidas por el investigador, la discusión sobre la generalización de los resultados sería más o menos sencilla. El programa y su disponibilidad El programa está escrito en Visual Basic 6.0, y corre bajo las versiones actuales de Windows para PC, específicamente Windows 95 o superior. No requiere un proceso largo de instalación, sino únicamente guardar en una carpeta y ejecutarlo desde ahí. Ya que el programa está compilado, funciona como un ejecutable y no requiere tener instalado el programa Visual Basic. Para ejecutar el programa, hacer doble clic en el icono del programa e ingresar los datos en los espacios requeridos; el uso del programa es intuitivo y de rápida familiarización por el usuario. Una vez iniciado el programa, se requiere que el usuario introduzca la correlación no paramétrica que necesita transformar a correlación de Pearson. El segundo paso es elegir qué tipo de correlación no paramétrica se ha introducido; inmediatamente el programa responde con la transformación a r de Pearson y sus intervalos de confianza en niveles preseleccionados (95% y 99%), junto con los intervalos de confianza para la correlación no paramétrica. En otras palabras, los intervalos de confianza se calculan para la correlación de Pearson y las correlaciones no paramétricas ρs o τxy ingresadas. Las fórmulas presentadas en las secciones anteriores las realiza el programa. El programa está disponible sin costo, dirigiendo el pedido al primer autor en las direcciones de contacto.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->