Está en la página 1de 11

TALLER

DE DIVERSIDAD MICROBIANA Y METAGENÓMICA



INSTRUCTOR: Juan Manuel Anzola Lagos Ph.D.
Lima, Perú. Julio 15 de 2019

El entorno de ejecución que vamos a utilizar es un contenedor de docker que contiene todos los archivos y
programas necesarios para realizar los análisis que vamos a necesitar.
En Windows ejecute el comando “CMD” para visualizar la línea de comandos de Windows. Ejecute este comando
tres veces de tal forma que tenga tres ventanas de “CMD”. La ventana de arriba a la izquierda la utilizaremos para
ejecutar “mothur”, la de arriba a la derecha para ejecutar comandos de Linux al interior del contenedor. La ventana
de abajo la utilizaremos para correr comandos de docker en Windows. De aquí en adelante las llamaremos
respectivamente la ventana “mothur” , la ventana “Linux” y la ventana “Windows”.
Cuando vea el siguiente prompt:
mothur >
Quiere decir que el comando debe ser ejecutado en “mothur” dentro del contenedor docker.

Cuando vea el siguiente prompt:
>
Quiere decir que el comando debe ejecutarse desde la ventana “Linux” dentro del contenedor docker.

Cuando vea el siguiente prompt:
C:\>
Quiere decir que el comando debe ser ejecutado desde la ventana “Windows”.

En la ventana “mothur” inicie el contenedor de docker por medio del siguiente comando:
C:\> docker run -it ubuntu /bin/bash
Inicie mothur por medio del comando:
> mothur
En la ventana “Linux” ejecute el siguiente comando:
C:\> docker ps

Esto debe mostrarle un resultado muy parecido a este:

En la columna “CONTAINER ID” identifique el nombre de su contenedor de docker. Debe aparecer algo muy parecido
a esto: “f25d06ccc38b”. Este es el identificador de su contenedor de docker, al cual llamaremos “contenedorID”. El
número de cada contenedor es único, por tanto su número de contenedor es diferente del mio.
En este punto siga las instrucciones del instructor para familiarizarse con la terminal de Linux.
Inicie una sesión desde la ventana “Linux” al contenedor que ya estamos corriendo en la ventana “mothur” de la
siguiente manera:
C:\> docker exec -it contenedorID /bin/bash






TALLER

Este taller es de tipo “dummy”. Para que los tiempos de ejecución sean rápidos, el número de muestras y de datos
se ha reducido comparado con un estudio tradicional de diversidad microbiana.
Este dataset corresponde a un experimento de análisis de microbiota en el proceso de fermentación y secado de
café realizado en tres localidades diferentes de Colombia. Se han tomado 3 dias diferentes de fermentación y 3 dias
de secado para las 3 localidades, para un total de 18 muestras. Se ha secuenciado la región V3 del gen del 16S.
El código de identificación de muestras es como sigue:
FD: Fermentación dia X.
SD: Secado dia X.
F: Finca.
Así por ejemplo la muestra FD4_F2 corresponde a “Fermentación Dia 4 de la Finca 2” y la muestra SD1_F3
corresponde a “Secado Dia 1 de la Finca 3”.

CONTROL DE CALIDAD DE SECUENCIAS
FASTQC
Primero visualizaremos la calidad de alguno de los archivos de secuencia
En la ventana “Linux” ubique el cursor en el directorio DIVERSIDAD_16S.
Ejecute fastqc en alguno de los archivos para visualizar calidad de la secuencia
Por ejemplo:
> fastqc FD4_F1_R1.fq.gz
Esto debe generar gráficas de calidad de las secuencias contenidas en el archivo en mención, contenidas en los
siguientes archivos:
FD4_F1_R1_fastqc.html
FD4_F1_R1_fastqc.zip

Copie los archivos al host por medio del siguiente commando (ejecutable desde Windows):
C:\> docker cp contenedorID:/DIVERSIDAD_16S/FD4_F1_R1_fastqc.html FD4_F1_R1_fastqc.html
C:\> docker cp contenedorID:/DIVERSIDAD_16S/FD4_F1_R1_fastqc.zip FD4_F1_R1_fastqc.zip

En Windows haga doble click en el archivo FD4_F1_R1_fastqc.html. Esto debe abrir el reporte de FASTQC
para este archivo. El instructor explicará el resultado.

TRIMMOMATIC
Para este paso procesaremos todos los archivos de la misma manera. Cada archivo generará una versión “clean” que
representa todas aquellas secuencias que pasan nuestro filtro de calidad. En este caso estamos eliminando
adaptadores (en caso de que los haya), utilizaremos una ventana móvil de 4nt para determinar puntos de corte en
la secuencia. El promedio de la ventana de 4 no debe ser inferior a un Q de 25. La mínima longitud aceptable de la
lectura debe ser de 80nt o superior.
> for f in $(ls *_R1.fq.gz); do TrimmomaticSE -threads 2 -phred33
${f%_R1*}_R1.fq.gz ${f%_R1*}_R1.clean.fq ILLUMINACLIP:adapters.fa:2:30:10
LEADING:20 TRAILING:20 SLIDINGWINDOW:4:25 MINLEN:80 ; done

Ejecute FASTQC en el archivo “clean” generado para la muestra FD4_F1 de la siguiente manera:
> fastqc FD4_F1_R1.clean.fq
Copie los archivos resultantes del contenedor de docker al host:
> docker cp contenedorID:/DIVERSIDAD_16S/FD4_F1_R1.clean_fastqc.html FD4_F1_R1.clean_fastqc.html
> docker cp contenedorID:/DIVERSIDAD_16S/ FD4_F1_R1.clean_fastqc.zip FD4_F1_R1.clean_fastqc.zip
Haga doble click en el archivo FD4_F1_R1.clean_fastqc.html y compare el resultado de FASTQC con el obtenido
anteriormente.


CONVERSION DE FASTQ A FASTA
Para procesar los archivos en el flujo de trabajo, es necesario convertirlos a formato FASTA.
> for k in $(ls *.clean.fq);do seqtk seq -A $k > ${k%clean*}clean.fas;done

Concatenar todos los archivos fasta en un solo archivo llamado stability.fasta
> cat *.clean.fas > stability.fasta

CREACIÓN DE GRUPOS
Crear los grupos que mothur utilizará para identificar que secuencia pertenece a cada muestra.
mothur > make.group(fasta=FD4_F1_R1.clean.fas-FD4_F2_R1.clean.fas-
FD4_F3_R1.clean.fas-FD5_F1_R1.clean.fas-FD5_F2_R1.clean.fas-
FD5_F3_R1.clean.fas-FD6_F1_R1.clean.fas-FD6_F2_R1.clean.fas-
FD6_F3_R1.clean.fas-SD1_F1_R1.clean.fas-SD1_F2_R1.clean.fas-
SD1_F3_R1.clean.fas-SD2_F1_R1.clean.fas-SD2_F2_R1.clean.fas-
SD2_F3_R1.clean.fas-SD3_F1_R1.clean.fas-SD3_F2_R1.clean.fas-
SD3_F3_R1.clean.fas, groups=FD4_F1-FD4_F2-FD4_F3-FD5_F1-FD5_F2-FD5_F3-FD6_F1-
FD6_F2-FD6_F3-SD1_F1-SD1_F2-SD1_F3-SD2_F1-SD2_F2-SD2_F3-SD3_F1-SD3_F2-SD3_F3)

Renombrar el archivo “mergegroups” creado en el paso anterior a “stability.groups”.
mothur > system(mv mergegroups stability.groups)

ESTADÍSTICAS DE SECUENCIAS
mothur > summary.seqs(fasta=stability.fasta)
Resultado:
Start End NBases Ambigs Polymer NumSeqs
Minimum: 1 80 80 0 3 1
2.5%-tile: 1 97 97 0 3 12958
25%-tile: 1 213 213 0 4 129574
Median: 1 251 251 0 5 259147
75%-tile: 1 251 251 0 5 388720
97.5%-tile: 1 251 251 0 6 505335
Maximum: 1 251 251 0 9 518292
Mean: 1 222.214 222.214 0 4.44951
# of Seqs: 518292

Output File Names:


stability.summary

Cual es el número total de secuencias en el dataset?
R:/
Cual es el rango de tamaños de las secuencias resultantes?
R:/
Que rangos de tamaño son compatibles con la longitud de la región V3?
R:/
Que puntos de corte utilizaría para filtrar las secuencias resultantes?
R:/
Cuanta cantidad de homopolímero está dispuesto(a) a aceptar en los datos?
R:/

FILTRADO DE SECUENCIAS
En vista de que la longitud de la región V3 está más cerca de ~250 que de ~80, haremos un filtrado de manera acorde.
mothur > screen.seqs(fasta=stability.fasta, group=stability.groups,
maxambig=2, minlength=213, maxlength=251)
Nombre los archivos que arroja mothur en este paso?
R1:/
R2:/
R3:/

Corra de nuevo summary.seqs
mothur > summary.seqs(fasta=stability.good.fasta)
Cómo difieren estos resultados con los obtenidos antes del filtrado?
Cual es el número total de secuencias en este nuevo dataset?
R:/
Cual es el rango de tamaños de las secuencias resultantes?
R:/

DEREPLICACIÓN
Uno de los pasos más importantes par el procesamiento de datos de marcadores moleculares como el 16S es la
dereplicación. Esta consiste en tomar las secuencias y determinar cuales son idénticas a las otras, de tal manera que
en vez de tener que procesar muchas secuencias idénticas, se procesa solamente una secuencia representativa del
grupo de secuencias idénticas. Fallo en el proceso de dereplicación es indicativo de que la secuenciación no es de
suficiente calidad, por tanto puede que los procesos subsiguientes del flujo de trabajo colapsen o simplemente las
métricas de riqueza y diversidad resulten infladas simplemente por error de secuenciamiento. Revisar este post que
habla al respecto: http://blog.mothur.org/2014/09/11/Why-such-a-large-distance-matrix/

mothur > unique.seqs(fasta=stability.good.fasta)
Cual es el número original de secuencias y el número total de secuencias después de dereplicación?
R:/

CONTANDO EL NÚMERO DE SECUENCIAS ORIGINALES
En vista de que hemos dereplicado el dataset, necesitamos mantener un contador que nos indique a cuantas
secuencias originales corresponde cada secuencia dereplicada, es lo logramos por medio de:

mothur > count.seqs(name=stability.good.names, group=stability.good.groups)


Cual es el nombre del archivo resultante?
R:/

ALINEANDO SECUENCIAS CONTRA ALINEAMIENTO DE REFERENCIA
Para este paso utilizaremos el alineamiento de referencia de la base de datos de SILVA https://www.arb-silva.de/
Varios autores reseñan la superioridad de este alineamiento sobre alineamientos referencia de otras bases de datos.
Tiene aproximadamente 50.000 posiciones. Visualícelo en la ventana Linux por medio del siguiente comando:
> less /DIVERSIDAD_16S/DB/silva.bacteria.fasta

Pregunte a su instructor cómo determinar el número de secuencias de este alineamiento (en formato multi-fasta) y
en general de cualquier archivo multi-fasta.
R:/

Realice un alineamiento entre su archivo de secuencias y el alineamiento de referencia de SILVA.
mothur > align.seqs(fasta=stability.good.unique.fasta, reference=DB/silva.bacteria.fasta)
Que archivos de salida ha obtenido como resultado?
R1:/
R2:/
R3:/

Compute estadísticas de las secuencias recién alineadas
mothur > summary.seqs(fasta=stability.good.unique.align, count=stability.good.count_table)
Resultado:
Start End NBases Ambigs Polymer NumSeqs
Minimum: 0 0 0 0 1 1
2.5%-tile: 6428 15660 220 0 3 9755
25%-tile: 6428 15955 250 0 4 97550
Median: 6428 16291 251 0 5 195100
75%-tile: 6428 16307 251 0 5 292649
97.5%-tile: 6428 16307 251 0 6 380444
Maximum: 43113 43116 251 0 9 390198
Mean: 6467.1 16137.1 247.137 0 4.56637
# of unique seqs: 63827
total # of seqs: 390198

Cómo interpreta este resultado? Que parece estar fuera de orden? Volvería a correr screen.seqs basándose en este
resultado?
R:/


Corra screen.seqs sobre este nuevo resultado:
mothur > screen.seqs(fasta=stability.good.unique.align, count=stability.good.count_table,
summary=stability.good.unique.summary, start=6428, end=16307, maxhomop=8)
Nombre los archivos resultantes:
R1:/
R2:/
R3:/
R4:/

En la ventana Linux revise el archivo stability.good.unique.good.align.
> less stability.good.unique.good.align
Que particularidades tiene el archivo?
R:/

Filtre las secuencias de tal manera que sólo quede la parte alineada
mothur > filter.seqs(fasta=stability.good.unique.good.align, vertical=T, trump=.)
Nombre los archivos de salida:
R1:/
R2:/

En la ventana Linux revise el archivo de salida stability.good.unique.good.filter.fasta. Cómo se
diferencia del anterior?
R:/

Después del proceso de alineamiento y de filtrado, en el cual hemos ajustado las secuencias sólo a la región de
interés, es posible que hayamos generado redundancia, por tanto es recomendable correr unique.seqs de nuevo.
mothur > unique.seqs(fasta=stability.good.unique.good.filter.fasta,
count=stability.good.good.count_table)
Se encontró nueva redundancia? En cuanto se disminuyó el número de secuencias únicas?
R:/

REMOCIÓN DE SECUENCIAS RESULTADO DE ERRORES DE SECUENCIA (pre-cluster)
En este procedimiento se busca eliminar secuencias que probablemente sean el resultado de errores de
secuencia/amplicación. La idea es que las secuencias abundantes tienden a generar más errores de secuencia que
las secuencias raras, por tanto aquellas secuencias con errores por debajo de un punto de corte se agrupan entre si.
En este caso agrupamos secuencias con un máximo de diferencia de 2 sustituciones.
mothur > pre.cluster(fasta=stability.good.unique.good.filter.unique.fasta,
count=stability.good.unique.good.filter.count_table, diffs=2)


BÚSQUEDA DE QUIMERAS
En el proceso de amplificación por PCR es posible que se hayan generado secuencias quiméricas. En vista de que son
un error de PCR, su impacto debe ser minimizado en los resultados.
https://en.wikipedia.org/wiki/Chimera_(EST)#PCR_chimera
mothur > chimera.vsearch(fasta=stability.good.unique.good.filter.unique.precluster.fasta,
count=stability.good.unique.good.filter.unique.precluster.count_table, dereplicate=t)
Se encontraron quimeras en los datos?
R:/

El paso anterior remueve las secuencias quiméricas del archivo de conteos, pero no las remueve del archivo fasta,
eso lo logramos por medio del comando:
mothur > remove.seqs(fasta=stability.good.unique.good.filter.unique.precluster.fasta,
accnos=stability.good.unique.good.filter.unique.precluster.denovo.vsearch.accnos)
Cuantas secuencias fueron removidas del archivo fasta?
R:/
Cual es el nombre del archivo resultante?
R:/

CLASIFICACIÓN DE SECUENCIAS
Este paso de clasificación busca determinar la afiliación taxonómica generalizada de cada secuencia. Con base en
esta clasificación es posible remover secuencias que en principio no deberían estar en los datos y también es posible
simplificar los pasos de agrupamiento (clustering) en pasos posteriores. En este caso realizaremos la clasificación
con base a la base de datos de Greengenes. La clasificación se realiza por medio de un clasificador bayesiano.
mothur > classify.seqs(fasta=stability.good.unique.good.filter.unique.precluster.pick.fasta,
count=stability.good.unique.good.filter.unique.precluster.denovo.vsearch.pick.count_table,
reference=DB/gg_13_8_99.fasta, taxonomy=DB/gg_13_8_99.gg.tax, cutoff=80)
Nombre los archivos de salida:
R1:/
R2:/

En la ventana Linux revise estos dos archivos de salida:
> less stability.good.unique.good.filter.unique.precluster.pick.gg.wang.taxonomy
> less stability.good.unique.good.filter.unique.precluster.pick.gg.wang.tax.summary

REMOCIÓN DE TAXA INESPECÍFICA
mothur > remove.lineage(fasta=stability.good.unique.good.filter.unique.precluster.pick.fasta,
count=stability.good.unique.good.filter.unique.precluster.denovo.vsearch.pick.count_table,
taxonomy=stability.good.unique.good.filter.unique.precluster.pick.gg.wang.taxonomy,
taxon=c__Chloroplast-f__mitochondria-k__Archaea)

CÓMPUTO DE MATRIZ DE DISTANCIA
mothur > dist.seqs(fasta=stability.good.unique.good.filter.unique.precluster.pick.pick.fasta,
cutoff=0.03)

AGRUPAMIENTO DE SECUENCIAS PARA CÓMPUTO DE OTUs
mothur > cluster(column=stability.good.unique.good.filter.unique.precluster.pick.pick.dist,
count=stability.good.unique.good.filter.unique.precluster.denovo.vsearch.pick.pick.count_table)

DETERMINACIÓN DE OTUs COMPARTIDAS ENTRE MUESTRAS
mothur >
make.shared(list=stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.list,
count=stability.good.unique.good.filter.unique.precluster.denovo.vsearch.pick.pick.count_table,
label=0.03)
Archivo de salida:
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.shared


CLASIFICACIÓN DE OTUs
mothur >
classify.otu(list=stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.list,
count=stability.good.unique.good.filter.unique.precluster.denovo.vsearch.pick.pick.count_table,
taxonomy=stability.good.unique.good.filter.unique.precluster.pick.gg.wang.pick.taxonomy,
label=0.03)
Archivos de salida:
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.0.03.cons.taxonomy
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.0.03.cons.tax.summary


CREACIÓN DE ARCHIVO BIOM
mothur > make.biom(shared=
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.shared, constaxonomy=
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.0.03.cons.taxonomy)
Archivo de salida
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.0.03.biom

En la ventana Linux renombre el archivo biom de la siguiente manera:
> mv stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.0.03.biom
stability.biom

Examine la estructura del archivo biom
> less stability.biom

GRÁFICA DE ALFA-DIVERSIDAD
Cree una gráfica de barras de la estructura taxonómica obtenida en el paso de CLASIFICACIÓN DE OTUs
> perl /scripts/AlfaDiversidadBarras.pl -consTaxSummary
stability.good.unique.good.filter.unique.precluster.pick.pick.opti_mcc.0.03.c
ons.tax.summary -taxLevel 5

TRANSFIERA LA GRAFICA DE ALFA-DIVERSIDAD A WINDOWS
> docker cp contenedorID:/DIVERSIDAD_16S/ FD4_F1_R1.clean_fastqc.html

EXAMINE LA SECCIÓN MISCELANEOS AL FINAL DE ESTA GUIA Y SIGA LAS INDICACIONES DEL INSTRUCTOR














METAGENOMICA
ENSAMBLAJE Y ANOTACIÓN


Para esta parte del taller haremos un ensamblaje de secuencias “metagenómicas” provenientes de un cultivo
bacteriano cuyo origen es suelo que ha sido expuesto a contaminación con hidrocarburos.
Se realizará ensamblaje de secuencias, anotación del genoma y visualización de funciones y metabolismo presente
en la muestra.

En la ventana Linux, mueva el cursor a la carpeta METAGENOMA
> cd /METAGENOMICA

ENSAMBLAJE DE METAGENOMA CON SPADES
> spades.py --meta -1 r1.clean.fastq.gz -2 r2.clean.fastq.gz -t 2 -o ASSEMBLY
Este paso puede durar una hora o poco más de una hora.

Mueva el cursor a la carpeta ASSEMBLY
> cd ASSEMBLY

EVALUACIÓN DE LOS ENSAMBLAJES:
> perl /scripts/assemblathon_stats_MOD.pl K21/final_contigs.fasta
> perl /scripts/assemblathon_stats_MOD.pl K33/final_contigs.fasta
> perl /scripts/assemblathon_stats_MOD.pl K55/final_contigs.fasta
Evalúe los siguientes parámetros para cada uno de los valores de “k” utilizados por el ensamblador:
Number of scaffolds > 1K nt:
Number of scaffolds > 10K nt:
Number of scaffolds > 100K nt:
Number of scaffolds > 1M nt:
Number of scaffolds > 10M nt:
N50 scaffold length:

ANOTACIÓN DE METAGENOMA CON PROKKA
> /root/prokka/bin/prokka --cpus 2 scaffolds.fasta
Este paso debe tomar unos 10 o 15 minutos.

Mueva el cursor a la carpeta PROKKA_07152109
> cd PROKKA_07152109

EXTRAIGA LAS ANOTACIONES EC DE LOS RESULTADOS
> grep "eC_number=" PROKKA_07152019.gff | cut -f9 | cut -f1,2 -d ';'| sed
's/ID=//g'| sed 's/;eC_number=/\t/g' > PROKKA_07152019.ec

INFIERA ANOTACIONES MetaCyc A PARTIR DE LOS RESULTADOS EC


> python /scripts/genes.to.KronaTable.py -i PROKKA_07152019.ec -m
/reference_db/metacyc/ec.to.pwy -H /reference_db/metacyc/pwy.hierarchy -n
PROKKA_07152019 -o PROKKA_07152019.krona.metacyc.minpath.tab

INFIERA ANOTACIONES Kegg A PARTIR DE LOS RESULTADOS EC


> python /scripts/genes.to.KronaTable.py -i PROKKA_07152019.ec -m
/reference_db/kegg/ec.to.pwy -H /reference_db/kegg/pwy.hierarchy -n
PROKKA_07152019 -o PROKKA_07152019.krona.kegg.minpath.tab


IMPORTAR DATOS A KRONA - MetaCyc
> ktImportText -o PROKKA_07152019.krona.metacyc.minpath.html
PROKKA_07152019.krona.metacyc.minpath.tab

IMPORTAR DATOS A KRONA - Kegg
> ktImportText -o PROKKA_07152019.krona.kegg.minpath.html
PROKKA_07152019.krona.kegg.minpath.tab

TRANSFIERA LOS ARCHIVOS .html A WINDOWS


> docker cp
contenedorID:/METAGENOMICA/ASSEMBLY/PROKKA_07152019/PROKKA_07152019.krona.metacyc.minp
ath.html PROKKA_07152019.krona.metacyc.minpath.html
> docker cp
contenedorID:/METAGENOMICA/ASSEMBLY/PROKKA_07152019/PROKKA_07152019.krona.kegg.minpath
.html PROKKA_07152019.krona.kegg.minpath.html

Doble click en los archivos .html para visualizarlos en su navegador.


PARA SABER MÁS:
Guia mothur:
La parte inicial de esta guía está basada en el Procedimiento de Operación Estándar de mothur creado por Pat
Schloss, el cual se puede consultar en este vínculo:
https://www.mothur.org/wiki/MiSeq_SOP

La parte de anotación de esta guía está basada en este post de anotación funcional
https://github.com/EnvGen/metagenomics-workshop/blob/master/source/annotation/functional_annotation.rst




MISCELANEOS

Instalación de QIIME:
https://docs.qiime2.org/2019.4/install/native/

Con el archivo BIOM creado en mothur y el archivo stability.mapping.txt, es posible importar los datos a QIIME y
aprovechar las herramientas de visualización disponibles en QIIME.

Conversión de archivo BIOM a archivo de OTUs de QIIME2.
> qiime tools import --type 'FeatureTable[Frequency]' --input-path
stability.biom --output-path stability.OTU-Table.qza --input-format
BIOMV100Format

Cómputo de estadísticas de OTUs:
> qiime feature-table summarize --i-table stability.OTU-Table.qza --m-sample-
metadata-file stability.mapping.txt --o-visualization table.qzv

Cómputo de rarefacción:
> qiime diversity alpha-rarefaction --i-table stability.OTU-Table.qza --p-
max-depth 99 --m-metadata-file stability.mapping.txt --o-visualization
alpha-rarefaction.qzv

Cómputo de métricas principales:
> qiime diversity core-metrics --i-table stability.OTU-Table.qza --m-
metadata-file stability.mapping.txt --p-sampling-depth 99 --p-n-jobs 4 --
output-dir core-metrics-results

OTUs – Diferencias entre tratamientos:
> qiime diversity alpha-group-significance --i-alpha-diversity core-metrics-
results/observed_otus_vector.qza --m-metadata-file stability.mapping.txt --o-
visualization core-metrics-results/observed_otus-group-significance.qzv

Equitabilidad:
> qiime diversity alpha-group-significance --i-alpha-diversity core-metrics-
results/evenness_vector.qza --m-metadata-file stability.mapping.txt --o-
visualization core-metrics-results/evenness-group-significance.qzv

Distancia Jaccard - tratamiento:
> qiime diversity beta-group-significance --i-distance-matrix core-metrics-
results/jaccard_distance_matrix.qza --m-metadata-file stability.mapping.txt -
-m-metadata-column TRATAMIENTO --p-pairwise --o-visualization core-metrics-
results/jaccard-TRATAMIENTO-group-significance.qzv

Distancia Bray-Curtis - tratamiento:


> qiime diversity beta-group-significance --i-distance-matrix core-metrics-
results/bray_curtis_distance_matrix.qza --m-metadata-file
stability.mapping.ORIGINAL.txt --m-metadata-column TRATAMIENTO --p-pairwise -
-o-visualization core-metrics-results/brayCurtis-TRATAMIENTO-group-
significance.qzv

Distancia Jaccard - finca:


> qiime diversity beta-group-significance --i-distance-matrix core-metrics-
results/jaccard_distance_matrix.qza --m-metadata-file
stability.mapping.ORIGINAL.txt --m-metadata-column FINCA --p-pairwise --o-
visualization core-metrics-results/jaccard-FINCA-group-significance.qzv
Distancia Bray-Curtis - finca:
> qiime diversity beta-group-significance --i-distance-matrix core-metrics-
results/bray_curtis_distance_matrix.qza --m-metadata-file
stability.mapping.ORIGINAL.txt --m-metadata-column FINCA --p-pairwise --o-
visualization core-metrics-results/brayCurtis-FINCA-group-significance.qzv



DOCKER

Descarga de máquina virtual y resultados pre-computados (habilitada hasta el 15 de Agosto de 2019)
https://drive.google.com/open?id=1ONfKk-dx7E3hgnnn-GGwWQy14LUchW0q

Descarga de Docker:
https://www.docker.com/products/docker-desktop

Instalación de contenedor docker con datos del taller
> docker load --input ubuntu.tar.gz

Arranque del contenedor
> docker run -it mothur_snapshot /bin/bash

Sesión de terminal al conenedor (desde otra ventana)
> docker exec -it contenedorID /bin/bash

Guardar trabajo realizado en el contenedor
> docker commit contenedorID nombre_contenedor

Exportar contenedor:
> docker save nombre_contenedor --output nombre_contenedor.tar

También podría gustarte