Artículo publicado en abril de 2018

DOI: http://dx.doi.org/10.18567/sebbmdiv_RPC.2018.04.1

Mª Begoña Ruiz Larrea

Departamento de Fisiología de la Facultad de Medicina y Enfermería, Universidad del País Vasco UPV/EHU

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Descargar artículo (pdf)

 

Los radicales libres conviven con nosotros: son indispensables para nuestra fisiología, pero a elevadas concentraciones son dañinos. Aquí analizo brevemente cómo surgió el interés por estas moléculas desde el siglo pasado hasta hoy.

Sí, convivimos con los radicales libres aunque nos empeñemos en tomar suplementos vitamínicos antioxidantes y aunque sigamos una dieta sana que incluya frutas y verduras, también cargadas de polifenoles y vitaminas antioxidantes. Siguen existiendo en nuestro cuerpo especies reactivas con electrones desapareados y otras especies derivadas del oxígeno y del nitrógeno, también muy reactivas (ROS y RNS, del inglés reactive oxygen y nitrogen species). Estas especies transmiten mensajes a nuestras células, regulando procesos como la proliferación, migración, supervivencia, apoptosis y autofagia celulares (1). Son componentes fundamentales en procesos fisiológicos, en la inmunología y en la neurociencia. Así, entre otras funciones, actúan como vasodilatadores, bactericidas, potencian la función neuronal y tienen un papel clave en la ovulación, capacitación espermática y fertilización (2, 3). Sin embargo, en concentraciones elevadas los radicales libres son dañinos y están implicados en numerosos procesos patológicos, como la arteriosclerosis, el cáncer, la toxicidad por fármacos o la infertilidad. Dada su gran reactividad, los ROS reaccionan con las moléculas más próximas, dejando huellas de su ataque. Para evitar o reducir sus efectos lesivos nuestras células están dotadas de una batería de genes que expresan proteínas con actividades catalíticas, como el enzima superóxido dismutasa, capaces de disminuir las concentraciones de los radicales libres y contrarrestar, así, sus efectos. Para el correcto funcionamiento de nuestro organismo es necesario un equilibrio entre radicales libres y antioxidantes (equilibrio redox), de forma que ambos componentes de la balanza deben estar compensados. Cualquier desequilibrio supone una situación patológica, pero no solamente porque en exceso los radicales libres provocan lesiones fulminantes, sino también porque su ausencia es incompatible con la vida.

fig 1 bruizlarrea

Figura 1

Hoy en día en los libros básicos de Bioquímica se hace referencia a estas moléculas, pero hace unos años no se nombraban. La vitamina E, la vitamina antioxidante por antonomasia, se hacía llamar vitamina de la fertilidad porque su ausencia en ratones (que no en humanos) provocaba esterilidad y se desconocía su papel en la fisiología.

¿Por qué los radicales libres han pasado inadvertidos durante tanto tiempo? La historia viene de lejos. En los años 50 no se ponían en duda los beneficios del oxígeno, el gas atmosférico necesario para mantener nuestra actividad. En presencia de oxígeno obtenemos mucha más cantidad de energía (oxidando combustibles metabólicos) que en su ausencia (anaerobiosis). La presencia de oxígeno hizo que las especies evolucionaran adaptando mecanismos como las proteínas de transporte y el sistema circulatorio, para transportar el oxígeno en cantidades adecuadas y mayores que las que se obtendrían por simple difusión. La alta capacidad metabólica de las neuronas para oxidar la glucosa se utiliza actualmente para monitorizar la actividad cerebral por la técnica de tomografía de emisión de positrones (PET). Era, por tanto, impensable que el oxígeno pudiera ser tóxico. Sin embargo, es precisamente ese proceso de quemar la glucosa y otros nutrientes en la mitocondria el que genera una gran cantidad de radicales libres (¡unos 50 trillones de ROS diarios!).

En este contexto destaca la extraordinaria labor realizada por una mujer, la bioquímica argentina Rebeca Gerschman (1903-1986), quien postuló en 1954 la teoría sobre la toxicidad del oxígeno y su implicación en los procesos patológicos y en el envejecimiento, conocida como Gerschman theory, (4). Este hecho le proporcionó un gran número de detractores, ya que en aquella época se desconocía la existencia de moléculas endógenas capaces de eliminar radicales libres derivados del oxígeno. No fue hasta 1969 cuando dos científicos norteamericanos, Joe M. McCord e Irwin Fridovich, publicaron sus hallazgos sobre la superóxido dismutasa, una proteína con actividad catalítica capaz de eliminar el radical libre anión superóxido para convertirlo en peróxido de hidrógeno. McCord y Fridovich confirmaron, por tanto, la teoría propuesta 15 años antes por Rebeca Gerschman, por la que el oxígeno que necesitamos para respirar también provoca toxicidad.

2O2- + 2H+H2O2 + O2
Reacción catalizada por la superóxido dismutasa (SOD)

El trabajo realizado por la científica argentina fue reconocido internacionalmente, siendo propuesta para el Premio Nobel de Fisiología o Medicina.

fig2 bruizlarrea

Figura 2. Rebeca Gerschman y Justin Frost, investigador asistente, realizando un ensayo in vivo. Foto obtenida de la Universidad de Rochester.

¿Por qué y cuándo se decidió aunar la investigación en el campo de los radicales libres? En 1981 tuvo lugar en España una intoxicación masiva por el consumo de aceite de colza adulterado, denominada síndrome tóxico o síndrome del aceite de colza. La enfermedad originó numerosas muertes y más de 20.000 personas afectadas. En un intento por establecer las causas y los mecanismos de la enfermedad se comenzó a hablar de los radicales libres, especies que eran conocidas sobre todo en la industria química y alimentaria. A raíz de este interés, en 1982 se creó la sociedad internacional Free Radical Research Society (SFRR) con el fin de investigar todos los aspectos relacionados con las propiedades de los radicales libres y descifrar sus funciones tanto en la industria como en la biología. En nuestro laboratorio seguimos las huellas que dejan los ROS en fluidos y células humanas. Hemos comprobado que antioxidantes de origen vegetal paradójicamente generan ROS en las células tumorales, causando su muerte (5). También hemos visto que el tratamiento de fertilización in vitro (FIV) que siguen mujeres infértiles induce la producción de ROS y que los ciclos de FIV que culminan en embarazo se asocian con un suero menos protegido frente a la oxidación (6).Conocer cómo actúan los radicales libres, cuáles son sus concentraciones óptimas en cada lugar de nuestro cuerpo y cómo llegar a ellos para evitar sus acciones dañinas sin alterar sus beneficios es una tarea difícil, pero seguro que merece la pena.

 

REFERENCIAS

1. Di Meo S, Reed TT, Venditti P, Victor VM. Role of ROS and RNS sources in physiological and pathological conditions. Oxid Med Cell Longev. 2016. http://dx.doi.org/10.1155/2016/1245049

2. Guang Li G, Gong J, Lei H, Liu J, Shawn-Xu XZ. Promotion of behavior and neuronal function by reactive oxygen species in C. elegans. Nat Commun 7:13234. DOI: 10.1038/ncomms13234, https://www.nature.com/articles/ncomms13234

3. Tsunoda S, Kimura N, Fujii J. Oxidative stress and redox regulation of gametogenesis, fertilization, and embryonic development. Reprod Med Biol 13:71–79, 2014.

4. https://mujeresconciencia.com/2017/12/05/rebeca-gerschman-una-bioquimica-argentina-adelantada-tiempo/

5. Lizcano LJ, Siles M, Trepiana J, Hernández ML, Navarro R, Ruiz-Larrea MB, Ruiz-Sanz JI. Piper and Vismia species from Colombian Amazonia differentially affect cell proliferation of hepatocarcinoma cells. Nutrients 7:179-195, 2015. http://www.mdpi.com/2072-6643/7/1/179/htm

6. Aurrekoetxea I, Ruiz-Sanz JI, Ruiz del Agua A, Navarro R, Hernández ML, Matorras R, Prieto B, Ruiz-Larrea MB. Serum oxidizability and antioxidant status in patients undergoing in vitro fertilization. Fertility & Sterility 94:1279-1286, 2010.

 

 

Ver artículos de otros meses

 

Artículo publicado en marzo de 2018

DOI: http://dx.doi.org/10.18567/sebbmdiv_RPC.2018.03.1

Armando Reyes Palomares

European Molecular Biology Laboratory (EMBL), Heidelberg, Alemania

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Descargar artículo (pdf)

 

La organización de la cromatina en las células es esencial para procesar adecuadamente la información genética. Equipos de expertos en genómica y bioinformática de todo el mundo están estudiando la complejidad de la arquitectura del genoma para comprender mejor el funcionamiento celular y para afrontar nuevos retos en biomedicina.

Hasta hace relativamente poco tiempo, se estimaba que tan solo entre un 15 o 20 % del genoma era funcional y todo lo demás se denominaba, con cierta polémica, como “ADN basura”. En 2012, se publicaron los resultados del proyecto ENCODE (del inglés Encyclopedia of DNA Elements) y se pueden considerar como una de las mayores revoluciones en la biología molecular contemporánea. El proyecto ENCODE (1,2) demostró que al menos un 80% del genoma humano tiene algún tipo de actividad biológica e hicieron público al mismo tiempo más de 15 terabytes de datos de libre disposición para utilizarlo en investigación.
Recordemos brevemente que el ADN se enrolla sobre unas proteínas, o histonas, formando nucleosomas que representan la unidad estructural de la cromatina que es como se encuentra el material genético en el núcleo celular. La organización de la cromatina se caracteriza por unos grandes dominios espaciales -o territorios- que abarcan gran parte de los cromosomas (Figura 1A). Estos territorios se conocen como dominios de la cromatina (“chromatin domains” en inglés)y son parecidos en todas las células del organismo, pero estos contienen a su vez unos sub-dominios que son muy variables y pueden presentar distinto grado de compactación (Figura 1A).

La compactación de la cromatina es clave para que los elementos reguladores (como los denominados enhancers o los promotores) estén accesibles e interaccionen con unas proteínas con capacidad de unión al ADN que se conocen como factores de transcripción. Estos factores de transcripción son en esencia los “conductores” básicos de la regulación de los genes al poner en marcha los distintos “programas” funcionales de las células. Para ello, primero deben poder unirse a unas secuencias específicas en el ADN para activar o desactivar la expresión de sus genes diana. De alguna forma, podemos decir que hay compartimentalización del genoma que varía entre las distintas células de nuestro organismo, algo fundamental para organizar la cromatina y que funcionen los mecanismos que la regulan.

La epigenética es el área encargada de estudiar la arquitectura de la cromatina y se centra en caracterizar las modificaciones químicas que se producen de forma natural en las histonas (ej. acetilaciones y metilaciones) o directamente en el ADN (ej. metilaciones). Estos cambios químicos en la cromatina hacen que algunas regiones del genoma estén accesibles (abiertas) y otras inaccesibles (cerradas) a los factores de transcripción.
Un dato interesante, a partir de los estudios genéticos, es que de los miles de variaciones genéticas (3) asociadas a enfermedades tan solo un 5% de ellas se localizan en regiones que codifican para proteínas. Esto nos indica que la gran mayoría de la variabilidad genética, conocida y asociada a problemas de salud, se localiza principalmente en regiones no codificantes y, gracias al proyecto ENCODE, sabemos que éstas afectan sobre todo a regiones reguladoras. Si tenemos en cuenta que cualquier célula humana expresará varios miles de genes, podemos fácilmente imaginar la complejidad del circuito de conexiones que se forma en el núcleo celular entre factores de transcripción y sus respectivos genes dianas. Estas conexiones se conocen como redes de regulación génica y se encargan de programar aquellos genes que mantienen la fisiología celular y las funciones específicas de cada tipo celular (Figura 1B). Hoy en día, es posible estudiar estas redes de regulación mediante técnicas de alto rendimiento que permiten valorar el grado de accesibilidad en la cromatina (ej. ATAC-Seq (3)), qué factores de transcripción se unen a los elementos reguladores del ADN (ej. ChIP-Seq (4)) y qué interacciones se producen entre distintas regiones de la cromatina (ej. Hi-C (5)). Gracias a esta información podemos conocer, por ejemplo, si entre las células de tu cerebro y tus músculos hay diferencias de accesibilidad en los elementos reguladores de algunos genes, cuantificar qué factores de transcripción tienen más relevancia para cada tipo celular o examinar el conjunto de genes que están activos o inactivos. Uno de los retos más prometedores de la epigenética consiste en descifrar dichas redes de regulación y entender cómo operan en las células.

Las conexiones de las redes de regulación génica evolucionan y se adaptan con el tiempo y, por este motivo, caracterizarlas es imprescindible para entender procesos dinámicos como la diferenciación celular, el desarrollo embrionario o los cambios progresivos en células afectadas por enfermedad. Sin embargo, dichas redes también son sensibles a perturbaciones inducidas por agentes externos (ej. tratamientos farmacológicos, estrés o la exposición a ciertos hábitos de vida) e internos (ej. variaciones genéticas) que pueden alterar las interacciones reguladoras. Así, por ejemplo, una variación genética puede afectar al funcionamiento de un factor de transcripción, pero también puede alterar la estructura de los sub-dominios de la cromatina perjudicando a la regulación de ciertos genes diana.

Por último, hay que resaltar que la mayoría de estos avances se desencadenan por los progresos en las técnicas de secuenciación, así como las estrechas alianzas entre científicos de diversas áreas de la biología molecular como la epigenética, la genómica funcional y la bioinformática. El éxito de este ambicioso reto gravita alrededor de una sofisticada integración de datos sobre la variabilidad genética de los individuos, la expresión de genes y epigenética; para definir con precisión la arquitectura funcional de los genomas.

 

SEBBM Figure larger letters all 

 

 Figura. (a) Organización de la cromatina y (b) red de regulación representada por conexiones entre factores de transcripción y sus genes diana.

 

REFERENCIAS

1- https://www.encodeproject.org/
2- https://www.ebi.ac.uk/gwas/
3- https://en.wikipedia.org/wiki/ATAC-seq
4- https://en.wikipedia.org/wiki/ChIP-sequencing
5- https://en.wikipedia.org/wiki/Chromosome_conformation_capture

 

 

Ver artículos de otros meses

 

Artículo publicado en enero de 2018

DOI: http://dx.doi.org/10.18567/sebbmdiv_RPC.2018.01.1

Ismael Mingarro

Catedrático de Bioquímica y Biología Molecular de la Universitat de València (UV)

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Descargar artículo (pdf)

 

Los descubrimientos científicos se publican en revistas científicas en forma de artículos. Para su publicación los artículos son sometidos a un proceso no remunerado de revisión por ‘pares’. Pero las editoriales científicas cobran tanto a los autores como a los lectores, a pesar de que las tecnologías digitales han reducido significativamente los costes de producción. En este escenario, ¿realmente necesitamos a las editoriales tal cual las hemos conocido en el pasado?

 

En la actualidad se publican más de 2 millones de artículos científicos anualmente, de los cuales un porcentaje muy elevado (de más del 50% en algunas áreas de conocimiento) nunca son citados. Quizá estas cifras deberían servir para hacernos reflexionar acerca de cómo funciona el propio sistema científico. Pero para ello debemos empezar por describir este proceso.

En primer lugar debemos tener claro que la publicación de los resultados científicos es una necesidad para el avance de la Ciencia. En sí mismo el método científico se basa en primera instancia en la reproducibilidad, lo que implica la capacidad de repetir un determinado experimento en cualquier lugar del mundo (adecuadamente equipado) y por cualquier persona (o grupo de personas) formada en la materia. Para ello los científicos deben redactar en un manuscrito los resultados obtenidos con el suficiente detalle para posibilitar su verificación por la comunidad científica. Si no hiciésemos públicos nuestros resultados podríamos entrar en la paradoja de ‘reinventar la rueda’ constantemente, es decir, que por desconocimiento de lo hallado por otros, investigásemos problemas ya resueltos.

Así pues, una vez admitida la necesidad de las publicaciones, debemos comentar qué son y cuál es el proceso que siguen los manuscritos científicos para acabar en publicaciones científicas.

Una publicación científica es un trabajo empírico o teórico que contribuye al avance del conocimiento. Una vez escrito, el manuscrito se envía a una revista científica (con el compromiso de los autores de que no está siendo evaluado en ninguna otra revista) en la que tras ser evaluado inicialmente por algún académico del equipo ‘editor’, si se cree adecuado, se somete a un proceso de ‘revisión por pares’. Este proceso consiste en que otros científicos de la misma área de conocimiento y, en principio, muy relacionados con el tema investigado, actúan como expertos ‘revisores’. Los revisores tras el estudio detallado del trabajo presentado recomiendan a los editores aceptar (total o parcialmente) o rechazar el trabajo para su publicación. Generalmente este proceso es unidireccionalmente ciego, puesto que los revisores conocen la identidad de los autores, pero los autores no conocen la identidad de los revisores para que estos últimos dispongan de la mayor libertad posible en el análisis concienzudo del trabajo. Normalmente los editores utilizan varios revisores y si estos expertos coinciden en su evaluación, tanto para aceptar como para rechazar el trabajo, los editores toman la decisión final. Si los revisores discrepan en su veredicto, los editores pueden o bien consultar a nuevos revisores o tomar una decisión basándose en sus propios conocimientos.

Para sufragar los gastos de publicación, las revistas científicas cobran a los autores por la publicación de sus resultados, lo que ha dado lugar (si tenemos en cuenta el volumen ingente de artículos científicos mencionado al inicio) a una floreciente industria. Inicialmente las revistas científicas estaban ligadas a las Sociedades Científicas que se encargaban de contrastar y diseminar el conocimiento a la comunidad científica. En su momento las revistas científicas supusieron un gran avance para el desarrollo del conocimiento, puesto que cambiaron el sistema epistolar de discusión de ideas y resultados entre científicos prevalente antes de la aparición de las revistas por la publicación estructurada, regular y con mayor grado de diseminación que aportaron éstas. Es por ello que desde su aparición en el siglo XVII, la importancia y el grado de especialización de las revistas científicas ha ido claramente en aumento, por lo que su número se ha incrementado varios órdenes de magnitud. Así, a partir del siglo XIX y sobre todo a lo largo del siglo XX, las Editoriales Científicas ‘comerciales’ han ido adquiriendo un mayor protagonismo, hasta el punto de que actualmente muchas de las Sociedades Científicas que mantienen sus propias revistas han delegado las responsabilidades derivadas de la publicación en los grandes grupos editoriales. Una de las notorias excepciones a este hecho lo simboliza nuestra sociedad ‘hermana’ la American Society for Biochemistry and Molecular Biology que sigue publicando la emblemática Journal of Biological Chemistry (JBC).

Realmente éste es un modelo de negocio bastante atípico dado que las editoriales en lugar de pagar a los que les proporcionamos su materia prima, es decir a los autores, lo que hacen es cobrarnos. Además de cobrar a los lectores, bien sea directamente o a través de su institución. Sin embargo, el proceso de revisión por pares antes mencionado es totalmente gratuito, dado que los revisores, que somos los propios científicos, actuamos bajo un criterio de reciprocidad, es decir, que asumimos la tarea de revisar el trabajo de otros porque cuando enviamos a publicar nuestros propios artículos nuestros colegas los revisan también de forma altruista. La consecuencia de todo esto es que el negocio sale bastante redondo, y el papel del revisor no se reconoce en absoluto dado su carácter anónimo. Para consuelo de los sufridos revisores, existe desde 2012 la plataforma Publons (http://publons.com/) que verifica y certifica, a petición de los revisores, la realización de estas tareas contactando con las revistas científicas. Actualmente (30 de nov. de 2017) esta comunidad cuenta ya con más de 230.000 investigadores.

En las últimas décadas (desde los años 90 del siglo pasado), la revolución digital ha irrumpido en el escenario de las publicaciones científicas, lo que sin duda ha mejorado significativamente el acceso, la búsqueda y el almacenamiento de la información. En la práctica hemos cambiado las ‘separatas’ impresas por los PDFs que se han convertido en el formato electrónico universal de las publicaciones científicas. Si bien desde el punto de vista económico uno tiene la impresión de que las tecnologías digitales deben haber contribuido a abaratar en gran medida los costes de publicación, lo que debería haber redundado en una mayor socialización del mercado, en la realidad lo que parece haber ocurrido es una mayor concentración de las revistas en unos pocos grupos editoriales.

Una consecuencia de esta revolución digital ha sido la irrupción del concepto open-access (acceso abierto), que implica el acceso gratuito a los lectores, pero cobran a los autores (con tarifas ciertamente muy dispares que pueden alcanzar los 5.000$) o a los organismos que les financian. El número de revistas open-access ha crecido exponencialmente en los últimos años, principalmente por su acceso gratuito y porque los organismos que financian la investigación pública incentivan que las publicaciones derivadas de ella sean gratuitas para los lectores. Esto ha llevado a la aparición de revistas ‘depredadoras’ (predatory open-access publishing) que aúnan tasas de publicación elevadas con baja calidad científica, en las que el control académico es prácticamente inexistente. En cualquier caso, el éxito incuestionable de las revistas open-access, dado su potencial de diseminación de la Ciencia, abre la posibilidad de una transición total de las revistas hacia esta forma de publicación, si bien el proceso no se vislumbra efectivo a corto plazo puesto que las revistas con mayor índice de impacto han optado por generar filiales open-access pero manteniendo el sistema tradicional para sus buques insignias, como es el caso de Nature, Science o Cell.

Finalmente, para ilustrar las tendencias derivadas del uso de internet en nuestro sistema de publicación científica quiero mencionar los repositorios de los manuscritos prepublicados. El primero de estos repositorios apareció a principios de los años 90 y fue creado por y para físicos teóricos (arXiv.og). La idea inicial fue el disponer de los artículos antes de su publicación para poder ser distribuidos y discutidos entre científicos. Su éxito ha hecho que se extienda a prácticamente todas las áreas de conocimiento. En nuestra área, el Cold Spring Harbor Laboratory lanzó en 2013 la plataforma bioRxiv (https://www.biorxiv.org/) como un servicio de archivo y distribución de manuscritos prepublicados. Mediante este sistema gratuito los autores hacen accesible su trabajo de forma inmediata para la comunidad científica y pueden recibir feedback de sus colegas antes de enviarlo para su publicación. Una vez el artículo se publica en una revista científica, bioRxiv actualiza el manuscrito prepublicado con un enlace a la versión publicada. En la actualidad este reservorio cuenta con un sistema de transferencia directa a un gran número de revistas científicas entre las que, como no, se encuentra JBC.

Ciertamente no sabemos cómo será el sistema de publicación científica en el futuro, pero más nos vale estar atentos a las innovaciones.

 Fig 

 Figura. Los frutos del nuevo árbol de la Ciencia.

 

 

Ver artículos de otros meses

 

Artículo publicado en febrero de 2018

DOI: http://dx.doi.org/10.18567/sebbmdiv_RPC.2018.02.1

Esther Molina Montes

Grupo de Epidemiología Genética y Molecular, Centro Nacional de Investigaciones Oncológicas (CNIO)

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Descargar artículo (pdf)

 

El microbioma humano, compuesto principalmente por bacterias, ha cobrado en los últimos años gran interés debido a los resultados de varios estudios que apoyan que la microbiota puede afectar el riesgo de desarrollar cáncer, así como la respuesta al tratamiento durante la enfermedad. Muchos aspectos sobre la relación microbioma y cáncer son aún desconocidos y requieren ser investigados.

El microbioma humano es el conjunto de genes de los organismos microscópicos (microorganismos) presentes en nuestro organismo. Este conjunto de microorganismos se denomina microbiota, y está integrada principalmente por bacterias, virus y hongos. En general, el microbioma humano bacteriano es predominante y de mayor influencia sobre la salud. Más de cien mil billones (1014) de bacterias habitan en el organismo humano, siendo este número incluso 10 órdenes de magnitud mayor al número de nuestras células (1013). Si bien no se han logrado estimar con exactitud estas cifras, hoy en día se conoce que millones de bacterias están jugando un papel esencial en la regulación de numerosos procesos fisiológicos. Entre estos procesos, cabe destacar la actividad de las enzimas digestivas, la síntesis de vitaminas del complejo B, la interacción con el sistema inmunológico, o la protección frente a organismos patógenos, entre otros (1).

El microbioma total está constituido por la microbiota del tracto gastrointestinal, nasofaringe, piel, vagina, etc., ya que existen microorganismos en todos los órganos y sistemas del cuerpo humano. En el intestino, la microbiota del colon y recto se caracteriza por ser la más numerosa y diversa, con una densidad microbiana que supone hasta 1-2 kg de nuestro peso corporal y más de mil especies diferentes (2). Todas ellas determinan la diversidad y características de la microbiota personal. Las principales bacterias corresponden a tres grandes familias: Firmicutes (gram-positivos), Bacteroidetes (gram-negativos) y Actinobacterias (gram-positivos). A pesar de que la microbiota del intestino es estéril en el momento del nacimiento, este órgano se coloniza completamente durante el primer año de vida y continúa modulándose y estabilizándose a lo largo de la vida (1). Por tanto, la composición de la microbiota intestinal depende no sólo de factores endógenos (tipo genéticos), sino también de diversos factores exógenos (ambientales) como la dieta y los estilos de vida. Los cambios en la composición de la microbiota intestinal inducidos por algunos de estos factores pueden llevar a un estado denominado de “disbiosis” cuando la comunidad bacteriana comensal o beneficiosa se daña, potenciándose el estado inflamatorio individual, y aumentando por consiguiente el riesgo de padecer enfermedades como cáncer. Así, una dieta pobre en fibra y rica en carnes se ha relacionado con una microbiota intestinal que carece de bacterias metabolizadoras de los ácidos grasos de cadena corta (AGCC) que se producen en el intestino grueso cuando la fibra vegetal es fermentada por estas bacterias. Estos AGCC son metabolitos beneficiosos para la salud y para la prevención del cáncer (3). Otros inductores de disbiosis son la obesidad, el tabaco, y el estrés, siendo todos ellos reconocidos factores de riesgo para desarrollar cáncer. Los prebióticos (ingrediente alimentario no digerible) y probióticos (suplemento alimentario microbiano vivo) podrían revertir la disbiosis intestinal (3), si bien las evidencias sobre su potencial efecto beneficioso para la prevención de enfermedades son aún limitadas.

Tradicionalmente, la identificación y cuantificación de la microbiota humana se ha llevado a cabo mediante el cultivo in vitro de las bacterias, caracterizando posteriormente las especies microbianas. Sin embargo, no ha sido posible explorar toda la diversidad del microbioma humano con estas técnicas. La aparición de las estrategias de secuenciación masiva de ADN ha permitido conocer muchas de las cepas “incultivables”. Estas técnicas consisten en la identificación del ARN ribosomal de las bacterias o bien de todos sus genes (4). Las secuencias específicas de ARN ribosomal permiten la identificación de cada bacteria y su cantidad, y la secuenciación del genoma completo de todas las bacterias de la comunidad permite, además, caracterizar cada bacteria en profundidad.

Ya existían evidencias de que la microbiota podía influir sobre el desarrollo de cáncer. Por ejemplo, la bacteria Helicobacter pylori, presente en la microbiota del estómago de algunas personas, puede aumentar el riesgo de padecer cáncer de estómago. Otros ejemplos son el virus del papiloma humano (HPV) en el cáncer de cérvix y el virus de la hepatitis C (HBC) en el cáncer hepático. Recientemente, a través de la secuenciación de ARN ribosomal en muestras de heces de pacientes diagnosticados de cáncer de colon y de personas sanas se ha demostrado que bacterias como Fusobacterium están implicadas en el desarrollo de este cáncer (5). Estas bacterias generan una disbiosis intestinal y, como consecuencia, inflamación y proliferación de las células cancerosas (6). Por el contrario, otras bacterias como Bifidobacterium, protegen frente al desarrollo de cáncer a través de la estimulación de la actividad inmunológica (células T y macrófagos), e incluso parecen tener capacidad para reducir el crecimiento del tumor (5,6). Algunos estudios experimentales recientes también han puesto de manifiesto que la administración de determinados antibióticos junto al tratamiento de quimioterapia (medicamentos para el tratamiento del cáncer) puede tener como resultado una disminución de la supervivencia, o bien, aumentar la eficacia de los tratamientos (5).

La inflamación como respuesta inmunológica ante la presencia de bacterias que promueven el desarrollo de cáncer es el mecanismo más aceptado para explicar la relación microbioma-cáncer (6). El hecho de que la efectividad de los tratamientos de quimioterapia dependa de la presencia de determinadas bacterias también se basa en este mecanismo (5,6).No obstante, aún se desconocen muchos aspectos sobre la relación entre microbioma y cáncer, tales como qué especies de microorganismos permitirían diagnosticar un cáncer en una fase más temprana o prevenir su desarrollo, qué microorganismos podrían emplearse para mejorar la eficacia de los tratamientos, e incluso abundar en los mecanismos que explicasen la relación entre microbioma y cáncer.

 

figura esther molina 

 

 Figura. Algunas bacterias presentes en el tracto gastro-intestinal están involucradas no sólo en el desarrollo de cáncer sino también en la evolución de la enfermedad y en la respuesta al tratamiento [Tomado de referencia 5].

REFERENCIAS

Definición de microbioma
(1) HMP (Proyecto de Microbioma Humano) http://www.gutmicrobiotaforhealth.com/es/glossary/proyecto-de-microbioma-humano/
(2) Lopez-Goñi I. Microbioma El primer «mapa» de nuestras bacterias, el segundo genoma humano
https://www.semicrobiologia.org/pdf/actualidad/54/05%20Microrreportajes.pdf
Dieta y otros factores en microbioma
(3) Dieta y microbiota intestinal
http://www.gutmicrobiotaforhealth.com/es/dieta-y-microbiota-intestinal/
Secuenciación de microbioma
(4) NIH human microbiomeproject.
https://www.hmpdacc.org/micro_analysis/microbiome_analyses.php
Microbioma y cáncer
(5) Yandel K. Microbes meet Cancer. The Scientist 2016.
https://www.the-scientist.com/?articles.view/articleNo/45616/title/Microbes-Meet-Cancer/
(6) CancerQuest.
https://www.cancerquest.org/es/biologia-del-cancer/microbioma

 

 

Ver artículos de otros meses

 

Artículo publicado en diciembre de 2017

DOI: http://dx.doi.org/10.18567/sebbmdiv_RPC.2017.12.1

José Luis Caballero

Catedrático de Bioquímica y Biología Molecular de la Universidad de Córdoba

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

Descargar artículo (pdf)

 

Las plantas se defienden de sus patógenos mediante un complejo sistema de mecanismos moleculares en el que intervienen muchos genes. Es importante conocer cuáles son los genes implicados en defensa y cómo funcionan, ya que este conocimiento nos va a permitir mejorar la resistencia en plantas de interés agroalimentario, mediante estrategias biotecnológicas que puedan evitar un uso excesivo de químicos y pesticidas, contaminantes del medio ambiente.

 

Las plantas necesitan defenderse de organismos que las depredan y perjudican. Para ello, disponen de un arsenal de moléculas y estructuras celulares con capacidad defensiva que, permiten detener la invasión de la mayoría de agentes patógenos. Muchas de estas defensas se encuentran ya presentes cuando sus tejidos y células son atacados. Otras son rápidamente fabricadas como consecuencia de señales de alerta, que se transmiten desde la superficie de las células atacadas a su “centro logístico de coordinación de tareas”, el núcleo, donde se encuentran los cromosomas, y conducen a la activación de genes específicos para la defensa, a la vez que provoca una reprogramación del metabolismo celular, optimizándolo para responder al desafío del invasor. Muchas plantas han evolucionado mediante selección natural [1], conservando unos genes que codifican proteínas capaces de reconocer a determinados patógenos de manera muy específica (genes R o de resistencia) [2]. Por ello son capaces de transmitir la señal de alarma y organizar el sistema de defensa en la planta con tal rapidez y eficacia que les permite detener el desarrollo del patógeno o, incluso, eliminarlo. Sin embargo, muchos patógenos también han sido capaces de evolucionar, evitando o anulando este reconocimiento específico por parte de la planta y su sistema de defensa, por lo que finalmente pueden invadirla.

Desde su origen, la agricultura se ha centrado principalmente en obtener poblaciones de plantas (variedades) con características que fuesen beneficiosas, ya sea desde el punto de vista alimenticio, o de la salud, o el económico. El mantenimiento de estas características de interés en una variedad y en sucesivas generaciones de la misma, implica un proceso denominado selección artificial, en el que el hombre interfiere directamente. Esta selección artificial está basada en las características que las plantas manifiestan al medio que las rodea (fenotipo) y pueden, de algún modo, ser detectadas por el hombre (ej. la forma, el tamaño, el color o el sabor, etc. que la planta muestra como consecuencia de su composición génica o genotipo). La selección artificial procede a una velocidad mayor que la selección natural. Si bien la mejora de plantas se ha practicado desde hace miles de años, la selección artificial de los individuos de mayor interés ha provocado que el material genético de una planta cultivada llegue a ser muy diferente al de sus antecesores (ej. la fresa). Esto ha permitido la obtención de variedades de plantas que, o bien no contienen genes R de resistencia apropiados, o contienen “fallos” en la respuesta de defensa frente a la infección de determinados patógenos. La fresa es una planta de enorme importancia a nivel mundial por las características culinarias del fruto y por sus propiedades saludables para el consumo humano, pues es rico en sales minerales, vitaminas A, B, C y D, polifenoles y otros compuestos antioxidantes. La fresa cultivada (Fragaria x ananassa) es una especie octoploide. Es decir, posee ocho juegos de cromosomas y es consecuencia de un cruzamiento artificial y posterior selección para tamaño y sabor, a partir de las especies F. virginiana (notable por su sabor) y F. chiloensis (notable por su tamaño) [3]. Ninguna de las variedades de fresa que se comercializan actualmente son realmente resistentes a muchos de los patógenos que las atacan, por lo que gran parte de las cosechas se pierde por ataque de los mismos que impide su comercialización. Conocer cuáles son los genes R y los genes que se activan/desactivan en respuesta a patógenos es muy importante para la fresa u otras variedades de plantas de interés agroalimentario, ya que este conocimiento puede permitir, mediante ingeniería genética, modificarla de manera muy específica y dirigida, para hacerla más resistente. Asimismo, es importante que esta modificación genética se realizara sobre un único gen o grupo de genes concreto, a diferencia de la mejora mediante un cruzamiento clásico tradicional, donde se desconocería qué genes o combinación de genes implicados en la resistencia se seleccionan. Además, el proceso de selección tradicional puede conducir a la pérdida de otros caracteres agronómicos de interés. Más aún, en el caso de fresa, la selección artificial para resistencia por cruzamiento clásico es inviable, ya que las variedades cultivadas son octoploides, y a ella podrían contribuir múltiples loci distribuidos en los diferentes subgenomas.

Actualmente existen tecnologías génicas, como por ej. el uso de microarrays o la secuenciación masiva de RNA (RNAseq) [4], que permiten conocer cuántos y qué genes de la planta podrían estar involucrados en organizar una respuesta de defensa eficiente frente a un patógeno particular. Una vez identificados dichos genes, tecnologías de silenciamiento génico [5] permiten ver el efecto que produce en la planta la inactivación total o parcial de dicho gen, previo a la infección del patógeno (¿será la planta más o menos resistente?). También se puede determinar el efecto que tiene que el gen esté siempre activo (sobreexpresión génica) antes de que el patógeno trate de infectar la planta (¿estará la planta mejor o peor preparada para defenderse cuando el patógeno llegue?). Se pueden realizar ambos estudios introduciendo el gen identificado en plásmidos artificiales derivados del plásmido-Ti procedente de la bacteria Agrobacterium tumefaciens, capaz de transferir genes a plantas [6]. En general, esta técnica involucra el cultivo de células o tejidos de la planta en el laboratorio, dado que la transferencia de genes se realiza sólo a algunas células de la planta. A partir de estas células transformadas se regeneran plantas completas (plantas transgénicas), que llevan los genes transferidos de manera estable, los expresan y los transmiten a la descendencia para realizar los experimentos de susceptibilidad al patógeno. No obstante, el proceso descrito anteriormente es largo. Para poder conocer rápidamente la función de un gen, a menudo se utilizan técnicas de “transformación y expresión temporal del gen” en un tejido u órgano particular de la planta. En fresa, el fruto es un órgano ideal para este fin (Figura 1).

Así, células de A. tumefaciens portando el plásmido con el gen de interés se pueden infiltrar en el tejido del fruto, mediante inyección, para transferir el gen a las células de fresa. Esta transferencia permite observar si las células del fruto que han recibido el gen (transgen) y lo expresan manifiestan mayor o menor resistencia a una infección. Una vez conocida la función del gen, el paso siguiente es modificar genéticamente la planta, sobreexpresando o silenciando de forma estable el gen beneficioso para que pueda aportarle definitivamente una mayor resistencia a un patógeno, u otro carácter de interés agronómico. Las plantas transgénicas así obtenidas se pueden incluir luego en planes de mejora tradicional a través de reproducción sexual para transferir los genes de interés a variedades de alto rendimiento.

 

figura jlcaballero Recovered 

 

 Figura. Bacteria A. tumefaciens portando el plásmido vacío (control) o con el gen de interés (transgen), se inyecta manualmente a cada mitad del fruto. Luego, en cada mitad del fruto se inocula el patógeno de fresa. Si el transgen está involucrado en la activación de la defensa, el crecimiento del patógeno y el daño que este produce en el fruto se verá disminuido en la cara del fruto en la que se ha infiltrado.

 

REFERENCIAS

[1] Selección natural:
http://www.actionbioscience.org/esp/evolucion/futuyma.html. http://www.actionbioscience.org/evolution/futuyma.html#learnmore
[2] Genes R y Mecanismos de defensa contra patógenos en plantas:
https://vimeo.com/89379054
http://www.biouls.cl/librofv/web/pdf_word/Capitulo%2013.pdf
[3] Fresa:
http://www.rjb.csic.es/jardinbotanico/ficheros/documentos/pdf/pubinv/RMV/181QUERCUS.pdf
http://www.juntadeandalucia.es/export/drupaljda/1337161077LIBRO_FRESA_HUELVA.pdf
[4] Microarrays:
https://www.youtube.com/watch?v=0ATUjAxNf6U
http://learn.genetics.utah.edu/content/labs/microarray/
[5] Silenciamiento génico:
http://porquebiotecnologia.com.ar/index.php?action=cuaderno&opt=5&tipo=1¬e=115
http://www.nature.com/nrg/multimedia/rnai/animation/index.html
https://www.youtube.com/watch?v=Kl8bOEPGwNc
[6] Agrobacterium, Ti y Plantas Transgénicas:
https://www.youtube.com/watch?annotation_id=annotation_2723528745&feature=iv&src_vid=hcdNsjX4yF4&v=8iaTBEZK1e4
https://www.youtube.com/watch?v=K1ZyzvsHhOE

 

Ver artículos de otros meses

 

Socios Protectores