-------------------------------------------------------------------------------- Cuaderno Virtual de CMC

sábado, 16 de junio de 2012


La red de internet, es como una red de pesca en la que los ordenadores son los nudos y la información viaja a través de las cuerdas entre los nudos, esta información nunca se perderá ya que siempre habrá un camino para que la información fluya a través de la red es asi como y para lo que fue diseñada, en un principio no era para el público sino que era una estrategia en plena guerra fría que entusiasmo a los jefes del  ejército estadounidense que pusieron en marcha la procesadora de internet llamada Arpanet.
Dando lugar a partir de esta creación que permite compartir la información entre todos los ordenadores al ciberespacio, que no se refiere a la red de telecomunicaciones, sino  al mundo virtual de las páginas web, siendo esto un espacio no material, se ha intentado calcular el peso de este espacio tras una aproximación han estimado que hacen falta unos cierto número de electrones que por su masa hacen un total de 50gramos.
Aunque parezca raro la información no viaja en un bloque como lo haría una carta, sino que esta se divide en pequeños paquetes de información, viajando a través de los diferentes  canales de la red y llegando todos al mismo punto. Para esto es preciso que todos los ordenadores hablen el mismo idioma, o lo que es decir el Protocolo TCP/IP, (que es el idioma) que en un principio empezó a usarse en 1983 para dirigir el tráfico de los paquetes de información por Arpanet, garantizando así que todos lleguen a su destino.


La @ que parece que nació a partir de internet se utilizaba en la antigüedad, como unidad de peso o incluso para decir a cuanto costaba algo en libros de contabilidad. Sin embargo se puso de moda gracias al ingeniero estadounidense Ray Tomilson, que diseñaba un sistema de correo electrónico para Arpanet, simplemente bajo los ojos al  teclado y eligió un signo que no se utilizara en los nombres de usuario.




Como observamos en la foto aparece el IP y su consiguiente
Dominio que es mas conocido.
En internet cada ordenador se identifica por una dirección IP, es algo así como una matrícula para el ordenador, a través de la que se identifica dicho ordenador, pero el actual sistema de dirección IP, esta creado para que se conecten 4300 millones, y por lo tanto no existen números suficiente de identificación para todos los usuarios, y actualmente se está trabajando en la versión 6 del protocolo, la cual daría una cobertura para unas 5000 ordenadores por cada mm2. Sin embargo esto aún es un reto tecnológico aún por resolver, es por lo que actualmente nuestro proveedor nos asigna una IP dinámica, la cual cambia en cada conexión e incluso en horas, ya que si queremos una IP fija hay que pagar un poco más.
Es debido a esto de las direcciones de IP, tan poco prácticas a la hora de recordarlas por lo que necesitamos de un intérprete los servidores de Dominio los DNS que traduce a la dirección IP del servidor donde está alojada la página Web  que queremos visitar.


Actualmente disponemos de diferentes tipos de conexiones de internet, la primera y en la antigüedad se encuentra prácticamente obsoleta es a través de la línea telefónica analógica, en la que disponíamos de una velocidad de 56bps (bits por segundo), y la información era transmitida en pitidos de dos tonos o lo que es decir ceros y unos a través de una línea de voz.


Posteriormente apareció la banda ancha o ADSL, en la que se utilizaba las líneas telefónicas de cobre, permitiendo hablar por teléfono simultáneamente, en la que se necesita de un modem especial y adaptar la centralita telefónica.  Las velocidades de esta conexión oscilan entre los 8 y 24 Mbps (Mega bites por segundo).


Sin embargo hay otros proveedores que utilizan otras infraestructuras, en las que utilizan un cable de fibra óptica, en la cual los datos viajan en haces de luz a gran velocidad y sin interferencias electromagnéticas aunque todo no son ventajas ya que estos cables, tan frágiles y difíciles de empalmar no llegan a las casas directamente, sino que llegan a través de un cable coaxial, similar al de las antenas, en la que la actual velocidad máxima es de 30Mbps.




También disponemos de otra conexión alternativa, que es vía satélite, unos reciben la información por la antena parabólica y lo envían a través de una línea telefónica, aunque lo ideal sería un servicio bidireccional que recibiera y enviara la información directamente con el satélite, en España la velocidad máxima de esta conexión es de 2Mbps.



Finalmente ha aparecido otro tipo de conexión a internet, la de tercera generación (3G), la cual ofrece una conexión de banda ancha para los móviles y también para los ordenadores, ya sea a través de un modem 3G o a través de un teléfono. De momento la cobertura está restringida a algunos puntos del país, su velocidad máxima ronda los 7,2 Mbps.


Pero es muy molesto tener un portátil y necesitar de un cable para poder tener conexión a internet, es para ello por y para lo que nació el sistema wifi, que esta basa en ondas de radio para la transmisión de datos sin la necesidad de cables. En la actualidad existen comunidades wifi para compartir sus conexiones con los demás miembros de la comunidad, debido a la sobrecarga de conexiones wifi a veces se crean interferencias ya que los microondas y los móviles con tecnología bluetooth también utilizan la banda de frecuencias 2,4 GHz  Los internautas cada vez más están demandando disponer de un acceso a internet en cualquier punto de la ciudad, son los llamados hotspots, que se encuentran en cafeterías, bibliotecas, universidades… que pueden ser abiertos , de pago o restringidos exclusivamente para clientes.



Pero como dijimos antes esto tan solo era un proyecto del ejército estadounidense, fue en 1993 cuando se lanzó el primer navegador web al alcance de todo el público, pero es gracias al programador británico Tim Berners-Lee ideó un sistema, para que todos los científicos de todo el mundo pudiera compartir los resultados de sus investigaciones, publicándolos en documentos enlazados entre sí en una telaraña mundial  gracias a la “www”  es la Word Wide Web.

Pero estas páginas web deberían de mostrar información, con sonido, imágenes y video, es por esto que surgió el Mosaic, el primer navegador web con interfaz gráfica, que permitía introducir en una barra las direcciones de las páginas, avanzar y retroceder, y así recargar páginas. Disponible para Windows, Mac y Unix.

Los hipertextos son textos que contienen enlaces a otras páginas.
Una década después el primer navegador que puso a disposición internet al público, Netscape, no se usa actualmente y esta sustituido por el navegador Firefox, es hoy el navegador más avanzado en cuestiones de privacidad y seguridad, poco a poco ha ido ganando popularidad y ya es un símbolo de la cultura del software libre, ya que es gratuito y que cualquiera con conocimientos suficientes puede colaborar a mejorarlo porque su código está abierto y es público. Así muchos programadores pueden ayudar a reforzar su seguridad. El código de programación en el que está hecho firefox está basado en l Netscape, que tras su enorme éxito inicial fue barrido en pocos años por Internet Explore.


En 1994 dos estudiantes de la Universidad de Stanford de EEUU publicaron una página con enlaces a sus sitios web favoritos, en un principio se llamaba: “La guía de Jerry y David para la World Wide Web” que pronto cambio por un nombre con  más gancho, Yahoo.


Yahoo fue el primer directorio de internet y llegó a convertirse en la página de inicio de la mayoría de los internautas, esta catalogaba las nuevas páginas en categorías y marcaba las mejores con un icono que representaba unas gafas de sol.
Pero el número de páginas empezó a aumentar de tal manera que no resulto práctico y a partir de esto nacieron los buscadores.
Aparecieron las aplicaciones asesinas o bomba del inglés Killer apps, que no es más que el software o programa que hace explotar todas las posibilidades de una tecnología, desarrollando las posibilidades y por lo tanto aumentando las ventas del Hardware en los que se utiliza dichos programas.

Es por esto que las ventas del primer PC de IBM fueron muy flojas, hasta que salió al mercado una hoja de cálculo Llamada Lotus 1-2-3, que lo convirtió en un best-seller en el mundo empresarial.
Posteriormente nació Macintosh en 1985 Aldus Pagemaker fue el primer programa de maquetación que mostraba las páginas tal cual en las pantalla, es gracias a este programa que numerosos diseñadores gráficos fueran conquistados por Apple.

Siguiendo el paso de estos dos, Gameboy, tras el exitoso lanzamiento del juego del  Tetris, incorporo a la pequeña consola portátil, con la misma finalidad que los dos anteriores.


Como dijimos antes, la era de los buscadores estaba empezando, entre ellos esta Google, que nació de mano de dos estudiantes en un garaje de california en 1998, precisamente en Silicon Valley google no es más que un algoritmo que muestra las paginas Web por orden de las más buscadas o más relevantes, patentado con el nombre de PageRank que estuvo cociéndose durante dos largos años. Larry Page  y Brin en un principio no tuvieron mucho interés en crear su propia empresa, pero los grandes portales tampoco tenían mucho interés en mejorar los buscadores web, y por lo que la situación les obligo de alguna forma a seguir adelante por sus medios y ayudas de varios inversores. Esto cambio por completo la forma de navegar, ya que gracias a esto era innecesario recordar la dirección Web.
Hoy en día es una potente multinacional que rastrea a diario miles de millones de páginas Web.
Pero debido a que Google está basado en un algoritmo por lo que aprovecharon esto para intentar promocionar las paginas mediante el “Google Bombing” que engañaba a dicho algoritmo, que empezó a usarse para reivindicaciones sociales y políticas, pero que google soluciono, introduciendo un pequeño algoritmo que minimizaba los efectos.
Pero resulta raro que la dirección de Silicon Valley no aparece en google Maps, la Meca de la innovación tecnológica no es un área geográfica, ni un distrito administrativo, en la actualidad se llama Silicon Valley a una zona del norte de California situada entre las ciudades de San Francisco y San José, aunque no hay un consenso sobre sus límites.
El término Silicon Valley fue acuñado por un periodista, se debe a la alta concentración de empresas informáticas (que usan chips de silicio) en el norte de Santa Clara.
Varias de sus grandes empresas fueron fundadas por estudiantes en un garaje, que servía al mismo tiempo de laboratorio y oficina, como Hewelett-Packard: Palo Alto (1983), Apple: Los Altos en (1976), o Google en Menlo Park (1998).
Debido a la extensión de internet, y la dificultad que conlleva la creación de páginas web, apareció el termino Blogs, que con nociones básicas de informática, nos dan la posibilidad de crear nuestro propio blog, y difundir las noticias oportunas que vean conveniente el dueño del blog al que se pueden añadir seguidores y comentar los post. Gracias a esto no es necesario conocer el lenguaje HTML en el que se encuentran escritas las páginas web.
Bajo el lema de que cualquier persona es experto en algo, nació en 2011 Wikipedia, una enciclopedia que permite que cualquier usuario, desde su navegador Web pueda añadir o modificar sus contenidos. Esta gran enciclopedia pronto se convirtió en la mayor enciclopedia creada, esta empresa posee pocos trabajadores a tiempo completo, ya que con ella colaboran millones de voluntarios que se organizan para velar por la calidad de sus contenidos.
Estas webs con las que se colaboran, como wikipedia, blogger, Google Maps son Webs 2.0 y que superan con creces el número de visitas a las webs tradicionales.
Un ordenador hace mucho más que ordenar, es una palabra prestada del francés ordinateur, que es la traducción del original inglés computer, posteriormente los engranajes fueron sustituidos por componentes electrónicos, se generalizo el uso de la palabra ordenador, estos componentes tenían el inconveniente de que se construían para resolver un problema determinado y había que cambiarlos sí se querían cambiar para otro fin.
Posteriormente en 1936 Alan Turing, pensó en una computadora que lograría resolver todo tipo de problemas que pudieran traducirse en términos matemáticos y luego reducirse a una cadena de operaciones lógicas con números binarios en la que solo caben dos posibilidades.
La idea era reducir todo a cifras, letras, imágenes, sonidos a ristras de unos y ceros, usando un programa para resolver los problemas en pasos muy simples.
Es así como nació el primer ordenador digital, Turing creó uno de los primeros ordenadores como los actuales, digital y programable.
Más tarde la maquina que creo turing quedó obsoleta, los ordenadores han seguido duplicando la potencia de cálculo cada año y  medio.
Pero por muy rápido que un PC vaya, para usarlos todavía hay que esperar  cerca de un minuto mientras arranca, tras unas comprobaciones empieza a copiar el sistema operativo desde el disco duro a la memoria RAM. Cada vez que se enciende el ordenador hay que repetir la operación ya que esta memoria se borra.
Turing creía que los ordenadores podrían llegar a pensar y con el programa adecuado, hacer cosas como chatear sin poder distinguir si era una persona o un ordenador, lo cual sería llamado ChatBot. Pero nadie ha podido superar este test llamado Test de Turing.
Turing con 40 años había abierto el campo de la inteligencia artificial, pero en la cumbre de su carrera científica fue condenado por mantener relaciones homosexuales, pero para evitar la cárcel aceptó someterse a un tratamiento hormonal. Dos años más tarde murió tras dar el primer bocado a una manzana envenenada con cianuro, es por lo que mucho después, una marca de ordenadores adoptó como símbolo una manzana arcoíris como homenaje.
El software de los ordenadores, nos permite convertir un problema, tarea, en una gran cantidad de operaciones matemáticas sencillas que se calculan a gran velocidad. Los programas y juegos convierten nuestras acciones y deseos en tareas aún más complejas  que realiza el sistema operativo.
Algunos programas necesitan funciones que no tiene el sistema, y por lo que se pueden añadir mediante archivos o módulos llamados plug-ins. Las funciones del sistema convierte cada tarea en una serie de instrucciones específicas para el hardware como son el microprocesador, la memoria RAM, disco duro, tarjeta gráfica…
Pero la cadena de instrucciones sigue dentro de cada dispositivo, ya que cada uno dispone de un pequeño ordenador que controla sus motores  y circuitos eléctricos mediante un programa tan ligado a los componentes que ni siquiera puede ser llamado software sino Firmware.
La forma más cómoda de llevar información es mediante un dispositivo llamado Pen drive, en su interior hay un chip, formado por multitud de celdas que funcionan como diminutos interruptores que responden al sistema binario de unos y ceros, es así como cada casilla almacena un bit de memoria.
Un bit es la cantidad mínima de información pero es muy raro verlos en solitario, por lo que generalmente se agrupan en octetos llamados bytes.
Es a través del código ASCII el que se usa para almacenar documentos de texto en la memoria y en los discos.
Pero las imágenes están creadas de multitud de cuadros diminutos de colores, llamados pixeles. Lo mínimo es un byte por píxel y según la definición con la que queramos una foto hace aumentar el tamaño de esta, es por lo que aparece la compresión, en la que para mandar y recibir fotos a través de internet se utiliza un formato llamado JPG, que reduce el tamaño del archivo entre 10 y 20 veces.

sábado, 2 de junio de 2012


HACIA UN DESARROLLO SOSTENIBLE


            Desde el descubrimiento del fuego por nuestros antepasados de la especie  Homo erectus y debido al progreso tecnológico y al extraordinario aumento de la población humana, se han disparado las necesidades energéticas y materiales de la humanidad hasta el punto de no poder ser cubiertas por la naturaleza en la que habitamos. Urge una gestión sostenible de la naturaleza por parte de la humanidad.




El equilibrio sostenible entre la naturaleza y los seres humanos depende en gran medida de la explosión demográfica, pero ese es uno de los aspectos a tratar en este tema. Para empezar vamos, a tratar otros temas relacionados con lo que nos ocupa. El movimiento 15-M ha puesto sobre la mesa el tema de la economía sostenible, de la necesidad de cambiar el modelo económico como única forma de combatir el paro en nuestro país.

REPRESENTACIONES GRÁFICAS

Para analizar e interpretar las relaciones de nuestra especie con el medio debemos ser capaces de construir  e interpretar representaciones gráficas que dado que se estudian y aplican en otras asignaturas, aquí no vamos a trabajar como se hacen pero ante la posibilidad de que esta habilidad sea evaluada en el examen, os propongo que realicéis los ejercicios de las páginas, 145 y siguiente para que rememoréis vuestros conocimientos al respecto.



¿UNA PROGRESIÓN IMPARABLE?

Según Malthus, el  crecimiento de la población humana  sigue una progresión geométrica (aquella en la que cada valor de la progresión es el resultado de multiplicar el valor anterior por una razón), mientras que el crecimiento de la producción de alimentos que nos sustentan, aumenta según una progresión aritmética (cada valor de la progresión es el resultado de sumar al valor anterior una razón) consiguientemente, pensaba Malthus, las condiciones de vida de la humanidad, deben ir a peor…… uf!, hasta ahora se ha equivocado en los países del primer mundo.

*Lee las “predicciones de Malthus” de la página 147  Investiga  cuáles han sido las causas de que aun no se hayan cumplido en los países ricos pero aun amenace a los países pobres.



Podríamos considerar el futuro de la humanidad como lo que ocurre cuando metemos un paramecio (microorganismo unicelular) en una botella con nutrientes que cuando se divide, a las seis horas da lugar a dos y estos, seis horas después, a cuatro, ocho, dieciseis …, seguiría una función exponencial  f(x) =  2 elevado a X. 


En una semana serían 268 millones de paramecios, esto no llega a ocurrir nunca por que antes se habrían acabado los nutrientes. Si fuera el caso de la humanidad ¿cuándo seríamos conscientes de que nos quedaremos sin alimento para todos? Por las características de las funciones exponenciales, aunque nos diésemos cuenta de esto cuando la botella (la naturaleza, el planeta) estuviese al 10 % de su capacidad, apenas dispondríamos de un día (de la semana de los paramecios)  para tomar las medidas correctoras necesarias…. ¿es una progresión imparable? ¿somos conscientes de cuanto tiempo nos queda hasta que la situación sea irreparable?

            *Realizar el ejercicio del crecimiento de la población humana de la página 146 (considerar que la tasa de crecimiento de una población es el porcentaje de aumento con respecto a la población anterior).

 SISTEMAS LINEALES Y NO LINEALES

Cuando dos variables están relacionadas, pueden formar un sistema lineal en el que el resultado de un esfuerzo conjunto es igual a la suma  de los esfuerzos por separada (un albañil poniendo baldosas) y uno no lineal o caótico en el que la interacción de las partes hace que lo que haga una parte dependa de lo que hacen las demás (tres albañiles poniendo baldosas al mismo tiempo) A este último tipo pertenecen las relaciones dentro de la naturaleza y en nuestra relación con ella.
En los sistemas no lineales o caóticos, dado que las partes se influyen entre sí, resulta muy complicado realizar predicciones. Como en el clima, el aumento de la cantidad de CO2 atmosférico, aumenta el efecto invernadero y por tanto la temperatura, lo que a su vez provoca más evaporación del agua oceánica que provoca un mayor efecto invernadero pero las nubes reflejan parte de la luz que reciben por lo que baja la temperatura, favorece la formación de nubes que provocan precipitaciones de nieve que a su vez reflejan la luz con lo que…. Se entiende como tantos expertos en el cambio climático no se ponen de acuerdo en sus consecuencias.
El efecto invernadero no es el causante de todos nuestros males. El hecho de que la temperatura media permanezca constante en la tierra indica que tanta energía como recibimos del Sol es devuelta al espacio a lo largo del año. Éste equilibrio haría que la temperatura media fuese de -18º C, pero gracias al efecto invernadero natural que devuelve parte de la energía a la Tierra  la TM es de 15 º C lo que hace a la Tierra habitable.



La emisión de gases de efecto invernadero por las actividades humanas hace que el efecto invernadero natural se esté incrementando por la actividad humana y  que la Tierra no libere toda la energía recibida del Sol, lo que está provocando el aumento de la  temperatura media del planeta: Calentamiento global. 


La atmósfera terrestre esta compuesta por tres capas la Troposfera, la Estratosfera, y la Ionosfera.



La Troposfera, es la capa que esta en contacto con la superficie terrestre, tiene un espesor de aproximadamente 12km y es donde ocurren la mayoría de fenómenos meteorológicos, y contiene la mayor parte de gases que forman la atmósfera, y reúne las características necesarias para permitir la vida en La Tierra.


La Estratosfera, esta se extiende desde la troposfera hasta  aproximadamente 50km, es aquí donde se encuentra la capa de ozono, que protege a los seres vivos de los rayos ultravioletas procedentes del sol. 


La Ionosfera, esta capa alcanza los 400km de espesor, en ella apenas existen gases, es en esta capa donde se reflejan las ondas de radio y televisión, permitiendo así, ser escuchadas en los diferentes puntos del planeta.


El ciclo del agua

El ciclo del agua, es el conjunto de procesos mediante los que el agua circula de forma cíclica desde la atmósfera hasta la superficie terrestre y de nuevo a la atmósfera.


1. Las precipitaciones hacen que el agua regrese a la superficie terrestre en forma de lluvia, nieve o granizo.


2. El vapor de agua procedente de la evaporación y la transpiración, al ascender y enfriarse, se condensa y origina las nubes.
3. Las plantas  absorben agua del suelo, y mediante la transpiración la devuelven en forma de vapor a la atmósfera. De este modo contribuyen a la formación de las nubes.


4. Parte del agua que procede de las precipitaciones se infiltra en el subsuelo a través de rocas permeables formando las aguas subterráneas.


5. Otra parte del agua procedente de las precipitaciones fluye por la superficie terrestre y desemboca en los mares y océanos.


EL AIRE QUE RESPIRAMOS

Inspiramos O2 y espiramos CO2 por la respiración celular, el dióxido de carbono forma parte de la vida, pero las cantidades crecientes  que la actividad humana está depositando en la atmósfera y su efecto invernadero lo han convertido en un contaminante a combatir.


Monómeros + O2 ===== Energía + C02 +H20

Composición del Aire
También inspiramos polvo, arena, polen, esporas, microorganismos y tóxicos procedentes del consumo de combustibles, óxidos  de S y N que mezclados con H2O de las nubes provocan la lluvia ácida con efectos devastadores sobre los bosques como se puede observar en la foto de la página 153.









El ozono, Oque a una altura de 30 Km, en la Estratosfera, nos protege de los dañinos rayos ultravioletas del Sol cuando se produce en la Troposfera es un fuerte contaminante por su alto poder oxidante.









Recordar el agujero en la capa de ozono que años atrás tanto  preocupó al mundo por el incremento de los rayos UVA que llegaban hasta la superficie y el incremento de enfermedades relacionadas con ellos como el cáncer de piel. Era producido por las emisiones a la atmosfera de unos gases conocidos como CFC utilizados como propelentes en los esprais y como líquidos refrigerantes. La prohibición de su fabricación y uso zanjó  el problema radicalmente y actualmente la capa de ozono protectora se regenera rápidamente.  

AGUA





Actualmente, más que escasear el agua dulce, el problema está en su irregular distribución.
Un 97% es salado, pero su fitoplancton (la mayoría de las plantas terrestres) produce O2 y absorbe CO2 y además los océanos redistribuyen el calor por toda la Tierra, haciendo el clima menos extremo.
Del 3% de agua dulce, el 70% está en forma de hielo, es la utilizable por todos los seres vivos (+ humanos). El 80 % para la agricultura ¿Tiene sentido el regadío subsidiado, el riego por encharcamiento (como los romanos), aspersión,  o se hace imprescindible la extensión  del riego por goteo?







Creo que es bastante necesario el riego por goteo frente a las antiguas artes de cultivo, que consistia en encharcar la tierra, no disponemos de tanta agua para malgastarla de esa manera.





SUELO

Todos los seres vivos y en especial las plantas, de las que todos dependemos, además de agua y gases, necesitan nutrientes, sales minerales, abonos naturales para desarrollarse.

 En los océanos estas sales están disueltos, en tierra están en el suelo, de donde los toman por la raíces, convirtiéndolos en materia orgánica que aprovechan las plantas de las que nos alimentamos los animales… sin un suelo fértil no pueden vivir las plantas ni los animales. También viven muchas especies (descomponedores esenciales).





La vegetación protege al suelo del viento, arroyos… por eso su peor enemigo es la deforestación para distintos fines de interés humano. La pérdida de suelo que acompaña a la destrucción de la cubierta vegetal conduce a la desertización, sin suelo no crece la vegetación.
También se contaminan los suelos por la agricultura, ganadería, industria, minería, residuos urbanos… pudiendo llegar los contaminantes a la cadena alimentaria (el caso “de los pepinos”)
Además, las ciudades están construidas en los mejores suelos y con abundante agua, su crecimiento,  el asfaltado provoca la pérdida de buen suelo  agrícola y la contaminación de las aguas superficiales y subterráneas.

LA DIVERSIDAD

Es la variedad de distintos seres vivos. Se calcula que hay entre 3 y 50. 106 de especies distintas. Se conocen dos millones. Hoy han desaparecido el 99% de las especies que han existido por cambios ambientales importantes (como las glaciaciones) o  cataclismos (dinosaurios).


Cada especie es una variedad genética aquilatada en cientos de millones de años de relación con la naturaleza y cada pérdida es irreparable ante futuras necesidades ambientales y humanas.
Se calcula que nunca han desaparecido tantas especies como en la actualidad (entre 103 y 105 veces más rápido que en cualquier época geológica anterior).

Las especies nos aportan alimentos (el 75% de los alimentos proceden de siete especies: patata, trigo, arroz, maíz, cebada, batata y tapioca. Se han cultivado 7. 103 y  hay 75. 10especies vegetales comestibles… su pérdida sería irreparable para la humanidad), medicinas, genes que podrían solucionar problemas actuales o futuros.
El aumento de la población ha provocado impactos como la destrucción de ecosistemas, la sobreexplotación de especies de interés comercial (pescado, carne madera) y la introducción de especies invasores que tienen un efecto devastador sobre la biodiversidad, como por ejemplo el cangrejo 


ALTERNATIVAS A LA DEGRADACIÓN AMBIENTAL

1.) Energías Renovables.  El 80% del consumo energético proviene en la actualidad de la quema de combustibles fósiles (carbón, petróleo y gas natural), que producen CO2, causante del efecto invernadero, se agotan rápidamente y su consiguiente encarecimiento.















Urge la utilización de energías más o menos limpias como la geotérmica, hidráulica, impacto ambiental como la mareomotriz o la de las olas, la biomasa (CO2), biocarburantes (CO2), solar (placas que consumen mucha energía en su fabricación), eólica (impacto).









           2.) Aire limpio. Ya en el silo XV ciertos autores ingleses denunciaban el olor nauseabundo de las calles de Londres causados por los “gases infernales y subterráneos” que desprendía la quema del carbón mineral…

           
         * Conocer en qué consisten el “agujero de la capa de ozono” y el  Efecto Invernadero Natural y Humano (pág. 165)







El agujero de ozono se crea por la emisión de gases llamados CFC que desintegran el Ozono siendo peligrosos para la vida terrestre, ya la desaparición del ozono, nos expone directamente a la radiación ultravioleta, tan dañina para los seres vivos.


Ver la progresión de la capa de Ozono que muestra el observatorio de la nasa desde que empezó este problema hasta la actualidad AQUI
       




3.) Calidad del agua. La vida es inseparable del agua líquida y aunque el 70% del planeta está cubierto de agua, sólo el 3% es dulce y de esta, la mayoría es hielo.
            La actividad humana está unida al uso masivo del agua dulce en la industria, agricultura y ganadería produciendo además, vertidos residuales que la contaminan, haciéndola perder las condiciones necesarias para los usos que tenía en su estado previo (productos químicos, microorganismos, elevación de temperatura, residuos  orgánicos y ganaderos, abonos, pesticidas, metales pesados -Hg y Pb-, pinturas y disolventes, hidrocarburos….. que le hacen perder al agua su calidad)
            En las últimas décadas ha mejorado la tecnología para el tratamiento de los efluentes, pero la situación es extraordinariamente preocupante
           



4.) Lucha contra la desertificación. La pérdida de suelo fértil por la eliminación de la cubierta vegetal protectora por deforestación, pastoreo intensivo, incendios forestales, urbanización y agricultura en suelos marginales.
            La desertificación es una de las principales dificultades para aumentar la producción de alimentos y conservar la biodiversidad.
            Urge la gestión adecuada del agua, proteger la cubierta vegetal y fomentar una agricultura y ganadería acorde con las posibilidades del suelo y su preservación. La protección del suelo es más rentable y económica que su recuperación.
            En Andalucía  y el levante español es un problema grave, pues el clima subárido (lluvias torrenciales) favorece los arroyos y la desertificación.


Pinchar AQUÍ y ver articulo del país sobre la desertificación.

           
5.) Las tres “R”. El desarrollo tecnológico y la sociedad de consumo han disparatado la producción de residuos sólidos (las menos agresivas del medio), líquidos y gaseosos –más y más contaminantes-. Proceden de la agricultura, ganadería, pesquerías y aprovechamiento forestal; lo minería, la medicina y las ingentes cantidades de basura de hogares, comercios y construcción.
            Contra los residuos biodegradación (microorganismos que consumen ciertas sustancias residuales) y biorremediación (favorecer la biodegradación, añadiendo abonos a los vertidos petrolíferos para favorecer el desarrollo de los  microorganismos que lo degradan).
            Pero lo más urgente es frenar el impacto de los residuos sobre el medio mediante tres acciones (Las tres “R”):



-       Reducir la cantidad de residuos.
-       Reutilizar en lugar de usar y tirar.
-       Reciclar los desechos, especialmente papel, vidrio y metales (recogida selectiva y el tratamiento de los residuos para su reciclado es costoso y debería pagarlo el que los produce, “El que contamina paga”, pero al final lo pagamos los consumidores con un sobrecoste en nuestras compras.

6.) Disminuir la exposición a los riesgos naturales. Se viene observando un aumento de los riesgos climáticos asociados al cambio climático. El aumento de la cantidad de energía en la atmósfera, provocan violentos huracanes, inundaciones, vientos…. cuyos efectos son devastadores debido a las grandes concentraciones de la población en las ciudades (más del 50% de la humanidad vive en ellas) que además, muchas de ellas están situadas en lugares de riesgo como costas bajas o zonas sísmicas ……. Los expertos esperan que en cualquier momento ocurra el primer desastre natural que produzca un millón de muertos en una de estas megaciudades.



viernes, 25 de mayo de 2012

Actividad Pag 140



Construye un árbol genealógico Familiar:
El parecido entre padres e hijos esta basado en los genes. Averigua si, por ejemplo existe alguna de las siguientes características genéticas entre los miembros de tu familia. ¿Quiénes la tienen  y quiénes no? Construye un árbol genealógico que refleje esa herencia.

1. Disposición del lóbulo de la oreja: Separado o pegado a la mejilla.
2. Linea frontal del pelo: Continua con un saliente frontal en el centro.
3 Capacidad de enrollar la lengua: Ser o no capaces de enrollar la lengua en forma de U fuera de la lengua.
4 Pigmentación del iris: ojos azules frente a ojos más oscuros, sean estos verdes o marrones.
5. Hiperextensibilidad del pulgar: Capacidad o incapacidad de doblar hacia atras la ultima falange del pulgar en un angulo de casi 90º respecto al anterior.
6. Hoyuelos faciales en ambos lados de la boca: presencia o ausencia de hoyuelos en las mejillas.

Concepto de portador

Imagina que eres portador del gen de la fibrosis quística, la enfermedad genética recesiva más frecuente entre las personas de nuestra población.
a) ¿Cual sería el porcentaje de hijos portadores y sanos respecto a este gen si tu pareja no es portadora?

El 50% serían portadores.

b) ¿Cual sería el porcentaje de hijos enfermos, portadores y sanos si tu pareja también portara este gen?

El 50% sería portadores Un 25% no portador y otro 25% enfermos.




jueves, 24 de mayo de 2012

Articulos Tema 4


Monos con seis progenitores

Nacen dos macacos creados a partir de la fusión de tres embriones

EMILIO DE BENITO Madrid 6 ENE 2012
La investigación, que publicó ayer Cell Press, es relativamente sencilla de contar. Lo que los investigadores de la Universidad de Ciencia y Salud de Oregón (OHSU por sus siglas en inglés) han hecho ha sido juntar embriones de tres parejas de macacos, y conseguir que nazcan dos gemelos, Roku y Hex, cada uno con material genético proveniente de las seis aportaciones: los tres padres y las tres madres. Eso sí, para que el experimento funcionara hubo que tomar los embriones en un estado muy inicial, cuando solo contaban con cuatro células.

El trabajo muestra que células madre de embrión y de cultivo difieren

Las barreras biológicas de cada individuo aparecen muy pronto

Una mente abierta


La fabricación de quimeras (nombre que viene del animal mitológico que tenía cabeza de león, vientre de cabra y cola de dragón) ya se había conseguido en roedores y otros mamíferos, pero nunca en primates. Aunque en este caso se trata de quimeras particulares, ya que no mezclan partes de distintas especies, sino de distintos animales; en cualquier caso, de muchos más que los dos de un proceso de reproducción normal, o los tres en el caso de que haya una transferencia nuclear, en cuyo caso el hijo tiene material genético del padre y de dos madres, la que aporta el ADN del núcleo del óvulo y la -minoritaria- que suministra el ADN mitocondrial.
"Las células no se han fusionado, pero permanecieron juntas y trabajaron para crear órganos", describe el principal autor del trabajo, Shoukhrat Mitalipov. "Las posibilidades para la ciencia son enormes".
Pero esas posibilidades no se esperan sino a muy largo plazo. De momento, lo que los investigadores han conseguido parece poco práctico. En los animales se han encontrado células derivadas de los tres embriones originarios en todos los órganos. Y esto tiene una utilidad relativa. Porque lo que sí que tendría sentido sería crear un ser con los genes para conseguir el mejor hígado, el corazón más resistente y el cerebro más desarrollado, pero no una mezcla descontrolada de todo ello. No solo por la mezcla, sino porque no ha habido ninguna posibilidad de dirigir el proceso: los investigadores, una vez se creó el embrión-fusión y este empezó a desarrollarse, no tuvieron ninguna posibilidad de decidir dónde iban los genes de cada uno de los progenitores, que es algo clave en las modernas terapias génicas.
Por eso los investigadores, curiosamente, dedican la mayor parte del artículo a explicar qué es lo que no había funcionado sobre lo que sí dio resultado. Porque ellos intentaron primero un trabajo más fino. Por ejemplo, insertando células madre embrionarias obtenidas de unos cultivos en embriones de otras parejas, y el resultado fue que no se integraron. Por un motivo que no se conoce, el mono que nació era solo hijo de su padre y de su madre, pero no tenía aportaciones genéticas añadidas del cultivo. Tampoco funcionó la inyección en un blastocisto (una especie de pelota con un montoncito de células en un polo al que se llega a las dos semanas de desarrollo en humanos) de células de otro. Es lo que los científicos denominan inserción de masa celular interna. Ahí se consiguió que nacieran monos con el material genético de los progenitores originales o con los de la nueva aportación, pero tampoco hubo mezclas. Y no se sabe por qué.
Por estos fracasos, Mitalipov cree que este trabajo tiene otra ventaja: permite saber más sobre la diferenciación celular en las primeras fases del desarrollo. La primera conclusión es que esta es tan específica de cada individuo que en cuanto pasan varios días de desarrollo del óvulo fecundado las barreras son, por el momento, invencibles. "Necesitamos replantearnos lo que sabemos", afirma el investigador. "Tenemos que estudiar no solo las células madre cultivadas [que pueden mantenerse durante años y que son las que se usan en los ensayos actuales que hay con este material biológico], sino también las células madre mientras están en los embriones. Es demasiado pronto para cerrar el capítulo de estas últimas".
La diferencia tiene mucha importancia. Para tener células madre en un cultivo bastaría con usar las que ya existen. Es lo que se intentó en EE UU cuando el Ejecutivo de George W. Bush prohibió financiar la creación de nuevos cultivos de células madre embrionarias humanas con fondos federales. El argumento fue que con las líneas que ya había era suficiente, y de esta manera el Ejecutivo conservador pretendía acallar las críticas de quienes se oponían a la técnica por entender que para obtener las células había que destruir embriones, y que, aunque fuera en una etapa tan primaria como los primeros 14 días, cuando estos son unas pelotas huecas sin sistema nervioso diferenciado, eso era un aborto. La misma postura subyacía en la reforma de la ley de reproducción asistida que llevó a cabo el último Gobierno de Aznar, cuando se decidió que se podían dedicar a investigar los embriones sobrantes de los procesos de fecundación in vitro ya congelados, pero no los de nueva creación.
Pero este experimento apunta a que no puede fiarse todo el trabajo en un campo tan prometedor a los cultivos ya obtenidos. Si hay una diferencia entre células madre embrionarias recién extraídas o las cultivadas, no podrá renunciarse a seguir trabajando con las primeras.

“Monos con seis progenitores” El País 6 de enero de 2012.




1. ¿Cuándo se considera que una estirpe celular es pluripotente? Explícate.

Se considera pluripotente a una célula que no haya reprimido irreversiblemente su genoma y sea capaz de crear tejidos de cualquier parte del cuerpo, y que inyectados en a un embrión, las células inyectadas colaboren con las del embrión a la hora de formar tejidos.



2. ¿Cuál es la dificultad para utilizar las células madres en medicina?

La dificultad para utilizar células madre en medicina reside en que no se integran

3. ¿Qué aportan los macacos gemelos a la aplicación de las células madres? 



Los macacos quimera gemelos aportan, que gracias a este experimento, por primera vez en primates, que las células se integran para formar órganos armoniosamente y no que aparece un órgano de unos progenitores y otros de otros progenitores, esto supondría un avance a largo plazo ya que podrían crear órganos más resistentes…



4. ¿Son siempre  pluripotentes las células madres de los primates?

No solo son pluripotentes cuando se extraen directamente de los embriones.



5. ¿Cuánto material genético se mezcla en una reproducción sexual normal y cuánto en una transferencia nuclear?

En una reproducción sexual normal solo se mezcla la mitad de material genético de la madre y la mitad del padre creando un cigoto 2n!



Mientras que en una fusión como la de los monos se unen células derivadas del cigoto 2n! pero de 3 madres y 3 padres por lo tanto el embrión fusión tendrá 6n!



6. ¿Cómo se ha conseguido la primera quimera de mono?

Juntando los cigotos de 3 parejas justo cuando tienen cada cigoto 4 células o lo que es decir hayan hecho el proceso de división celular por mitosis solo dos veces cada cigoto.



7. ¿Cómo se formaron los órganos de los gemelos?

Los órganos de los gemelos se crearon entre todas las células que componían la fusión, colaborando cada una de ellas con el resto para crear el órgano.



8. ¿Qué células se investigan para la medicina regenerativa?

Las células iPS o células madre de plenipotencia inducida.

 
Vida de bote
Uno de los 'padres' del genoma crea la primera célula artificial - La técnica abre nuevos horizontes a la investigación de fármacos y genera incertidumbres bioéticas.

JAVIER SAMPEDRO 21 MAY 2010Compartir

Una ley inviolable de la biología -toda célula proviene de la división de otra célula- ha regido la existencia y la evolución de todos los organismos de la Tierra desde hace 3.500 millones de años. Hasta ayer. La bacteria que acaba de salir de los laboratorios de Craig Venter es una célula, pero no proviene de otra, porque su genoma es pura química: ha sido sintetizado en el tubo de ensayo de la primera a la última letra. La materia inerte animada por el hombre -el mito del golem- ya vive entre nosotros.
La primera "célula sintética" se llama Mycoplasma mycoides JCVI-syn1.0, para distinguirla del Mycoplasma mycoides, que es la bacteria natural en quien se inspira: la que le ha aportado no su genoma (que es de origen químico), pero sí la información para fabricarlo (copiarlo). Aunque la célula sintética no tenga una madre biológica, sí que tiene una madre informática. JCV es por John Craig Venter, y el 1.0 lleva su sello: denota que la célula es sólo una primera versión y connota, o presagia, un futuro Sillicon Valley del diseño de organismos vivos.

La reconstrucción de formas biológicas a partir de su mera información genética -de una secuencia de letras de ADN escritas en un papel, o almacenadas en una memoria- ya se había experimentado con virus, entre ellos el de la polio y el de la gripe española de 1918. Pero los virus no son entidades biológicas autónomas. Para reproducirse usan la maquinaria de la célula a la que infectan. Aunque un virus puede tener solo tres genes, esa maquinaria celular requiere cientos de ellos.
Es difícil predecir el alcance de esta tecnología. Entre los proyectos de Venter está diseñar un alga -unicelular, como la mayoría de las algas naturales- que fije el CO2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar. Otros proyectos buscan acelerar la producción de vacunas y mejorar la producción de ciertos ingredientes alimentarios, y de otros compuestos químicos complejos, o diseñar microorganismos que limpien aguas contaminadas.
Pero estos fines empresariales conviven, de forma paradójica, con cuestiones de profundidad. ¿Cuál es el genoma mínimo para sostener la vida? ¿Hay un conjunto de secuencias genéticas que define la frontera entre lo vivo y lo inerte? ¿Es esto una forma rampante de reduccionismo que pueda afectar a nuestra concepción de la vida humana?
"Este es un paso importante tanto científica como filosóficamente", admitía ayer Venter. "Ha cambiado mis opiniones sobre la definición de vida y sobre cómo la vida funciona". El trabajo plantea otras cuestiones menos profundas, pero apenas menos relevantes, sobre seguridad pública, bioterrorismo y propiedad intelectual.
Por una vez, la bioética no tiene que salir corriendo detrás de la ciencia. El propio Venter se ocupó de estimular la discusión desde el principio, y algunos de los más respetados bioéticos del mundo llevan más de 10 años analizando la cuestión. Entre ellos, Mildred Cho, del centro de ética biomédica de la Universidad de Stanford, y Arthur Caplan, del centro de bioética de la Universidad de Pensilvania. El grupo de trabajo también incluye teólogos como Daniel McGee, de la Universidad de Baylor. Han recopilado sus estudios en Synthetic Genomics Options for Governance (disponible en www.jcvi.org/cms/research/projects/syngen-options/overview/). Cho y Caplan publicaron un artículo de referencia en 1999 (Science 286: 2087).
Entre los ángulos polémicos del nuevo mycoplasma está su denominación. Los autores lo llaman célula sintética, cuando solo su genoma lo es. Una vez sintetizado el genoma, los científicos lo introdujeron en una célula (de otra especie de Mycoplasma) a la que antes habían quitado su propio genoma. Y un ser vivo no está hecho solo de genes. Las proteínas, los azúcares y las grasas son fundamentales como componentes de la célula, y para procesar su energía, o formar membranas.
Pero los azúcares y las grasas son sintetizados por enzimas, que son un tipo de proteínas. Y las proteínas se ensamblan a partir de sus unidades químicas (los aminoácidos) siguiendo el orden que dicta la secuencia de letras de los genes. Por tanto, aunque la "célula sintética" original solo lo fuera a medias, sus descendientes lo son por entero.
"Esta es la primera célula sintética que se ha hecho", dijo Venter, "y la llamamos sintética porque la célula se deriva enteramente de un cromosoma sintético, hecho con cuatro botes de productos químicos en un sintetizador químico a partir de pura información guardada en un ordenador".
El trabajo, que adelanta hoy la revista Science en su edición electrónica, es la culminación de un proyecto que empezó hace 15 años, cuando Venter y su equipo hallaron un modo de estimar el genoma mínimo, la mínima información necesaria para sostener la vida autónoma. Tomaron uno de los organismos con el genoma más pequeño conocido, otro mycoplasma (Mycoplasma genitalium), que vive en el tracto urinario humano. Le estropearon los genes uno a uno para quedarse solo con los indispensables. Ese genoma mínimo suficiente para sostener la vida resultó tener solo 350 genes. Ese fue el punto de partida para el resto de la investigación, con esa y otras especies del género Mycoplasma.
El genoma de un retrovirus, como el VIH, tiene unas 10.000 letras, o bases, en la jerga. El de Mycoplasma mycoides, la madre informática de la célula artificial, mide algo más de un millón de bases. Los genomas suelen medirse en megabases, o millones de letras, así que el genoma de este mycoplasma tiene una megabase. El genoma humano mide 3.000 megabases.
Las máquinas de sintetizar ADN están muy lejos de cualquiera de esas cifras. Son muy rápidas y baratas, pero sus productos no pasan de 100 bases. El equipo de Venter ha tenido que ensamblar esos fragmentos en una jerarquía de pasos: primero en cassettes de 1.000 bases, luego en ristras de 10.000, después en superristras de 100.000 y finalmente en la megabase total. Cada paso requiere usar seres vivos naturales, lo mismo la bacteria Escherichia coli, que la levadura del pan, Saccharomices cerevisiae.
El genoma sintético no es idéntico al natural. Tiene 14 genes menos, unas pocas mutaciones ocurridas durante el largo procedimiento -todas identificadas- y unas marcas de agua añadidas por los investigadores para distinguirlo con certidumbre de la versión natural. Pese a todo, la célula sintética Mycoplasma mycoides JCVI-syn1.0 se comporta como un Mycoplasma mycoides cualquiera por cualquier criterio fisiológico o bioquímico.
Venter es una figura única en el panorama científico. Uno de los investigadores más brillantes del proyecto genoma público, se hizo famoso al montar un proyecto privado para competir con él. Cuando esta carrera acabó -en empate-, Venter reasignó sus sistemas rápidos a secuenciar (leer las letras del ADN gtaatct...) en masa la vida marina. Su actual empresa se llama Synthetic Genomics. Uno de sus principales proyectos es energético: diseñar un alga unicelular que genere hidrocarburos a partir de la energía de la luz solar y el CO2 atmosférico.
Durante su exploración en masa de la vida marina, el equipo de Venter descubrió miles de especies de microorganismos, y millones de nuevos genes. El 85% de las secuencias genéticas son diferentes cada 350 kilómetros, y muchas de las especies son únicas. Entre esos genes nuevos hay 3.000 para fotorreceptores, las proteínas que captan la luz de distintas longitudes de onda.
Una de las ideas de Venter es crear una bacteria artificial con una ristra de esos genes y que capte así un espectro muy amplio de la luz solar. El científico estima que una bacteria artificial de este tipo podría convertir en hidrógeno un 10% de la energía solar, y que sembrarla en 13.000 kilómetros cuadrados bastaría para alimentar todo el transporte de EE UU. La tecnología genética es capaz de multiplicar el rendimiento de un proceso natural por 10.000 o 100.000 veces.


“Vida de bote” El País 21 de mayo 2010.




1. Antes de crear esta “célula sintética” por qué era ya famoso Venter ¿Cuál es su nuevo proyecto?  



Venter fue famoso desde que inicio la carrera con el National institute of Health para ver quién era en primero en descifrar el genoma humano.



Su nuevo proyecto consiste en crear bacterias, sintetizando su ADN para que fijen dióxido de carbono y lo conviertan en hidrocarburos, limpien aguas contaminadas…



2. Antes de crearse esta “célula sintética” y desde el principio de la vida toda célula había procedido siempre de….

Había procedido siempre de otra célula hasta que salió de los laboratorios la célula sintetizada de Venter.



3. ¿Cómo se ha obtenido la “célula sintética” llamada Mycoplasma mycoide JCVI-syn 1.0?



Se ha sintetizado el ADN y se le ha introducido a otra célula que previamente se le había quitado su propio genoma.



4. ¿Se había recreado algún otro ser vivo a partir de su genoma anteriormente?



Anteriormente no, solo las clonaciones, pero el ADN no había sido sintetizado, como mucho se había llegado a sintetizar genes que permitieran producir sustancias o cosas similares, pero lo que es sintetizar completamente un genoma no.



5. ¿Hay algún otro proyecto de este tipo?

Sí, la creación de organismos, con alguna finalidad económica como la producción de hidrocarburos… o incluso llegar a crear organismos más complejos.



6. ¿Con esta experiencia se obtuvo realmente una célula completamente sintética?



En parte sí ya que el funcionamiento de la célula lo dirige el ADN y este era completamente sintético, aunque cabe decir que fue implantado en una célula a la que previamente le habían eliminado su ADN.



7. ¿Cómo se formo el cromosoma sintético?



Lo tuvieron que hacer por tramos ya que los aparatos de laboratorio solo daba para sintetizar 100 bases, primero en casetes de 1000 bases, posteriormente en ristras y superristras...



8. ¿Cuál es el número de nucleótidos y de genes mínimo para sostener una vida autónoma de Mycoplasma? ¿Cuántos nucleótidos tiene el genoma humano?



El número de genes mínimo necesario para sostener una vida son 350.



9.  ¿En qué se diferencia el genoma del  Mycoplasma mycoide JCVI-syn  del de la especie natural? ¿A qué se deben estas diferencias?



En que el Mycoplasma mycoide JCVI-Syn, su genoma esta sintetizado artificialmente, al que además le han introducido unos pequeños cambios para poder diferenciarlo del resto de la especie natural.

Este ovario artificial nace, crece y reproduce

El desarrollo de órganos de recambio diseñados con células del propio paciente abre puertas a la esperanza - La recreación de la función ovárica es el último paso - Lo más ambicioso: crear un corazón.



JAIME PRATS 17 SEP 2010



En el fondo, la explicación más simple de la medicina regenerativa sería compararla con lo que hace el mecánico en un taller de reparaciones. De forma similar a cómo se cambia la inyección o la transmisión del coche cuando se han averiado, el objetivo final de esta disciplina es poder crear algún día en el laboratorio órganos artificiales biológicos (nada de prótesis autónomas) a partir de células del paciente, para sustituir un corazón, un riñón o una tráquea que no funcionan adecuadamente. Y en este proceso, las células madre, con su extraordinaria capacidad de proliferación y de especializarse en los distintos linajes celulares, son las protagonistas absolutas.
Uno de los últimos pasos en esta carrera ha llegado de la Universidad de Brown y del Women and Infants Hospital of Rhode Island, en Estados Unidos. Un equipo de investigadores ha logrado recrear in vitro un ovario artificial que ha conseguido en el laboratorio madurar ovocitos de forma que puedan ser fecundados e implantados, ya como embriones, en el útero de la madre. El objetivo es poder llegar a suplir la función ovárica en mujeres que, por ejemplo, tras un tratamiento de quimioterapia o radioterapia, la hubieran perdido.


Esta línea de trabajo está cada vez más extendida en la medicina regenerativa. Equipos inspirados en la misma filosofía están tratando de recrear un corazón a través de la regeneración de un órgano desechado para trasplante con células madre, como el dirigido por el jefe de servicio del hospital Gregorio Marañón, Francisco Fernández-Avilés. En Valencia, un grupo del Centro de Investigación Príncipe Felipe pretende poder reproducir testículos artificiales biológicos.
No siempre la finalidad consiste en crear un nuevo órgano de recambio, como en el caso del corazón. En ocasiones, si se trata de órganos no vitales, como el ovario, basta con reproducir su función en el laboratorio. Esto es lo que ha conseguido el equipo estadounidense dirigido por la investigadora Sandra Carson.
Hasta el momento, la práctica más parecida para preservar la fertilidad en las mujeres es el reimplante de tejido ovárico. Buena parte de las personas que se someten a esta operación son pacientes a las que se les ha detectado un tumor.
Las sesiones de quimioterapia y radioterapia, en función de la intensidad del tratamiento, el tipo de cáncer o la lesión del paciente, pueden debilitar gravemente su capacidad reproductora. Antes de que esto suceda, las mujeres tienen la posibilidad de salvaguardar parte de su tejido ovárico, de forma que después del tratamiento, se le pueda reimplantar y puedan volver a ovular. El proceso consiste en extraer por laparoscopia la corteza de un óvulo -que contiene decenas de miles de ovocitos inmaduros- y congelarla. Cuando la paciente se encuentra recuperada del cáncer y desea ser madre, se le reimplanta el tejido en el otro óvulo, que al no haber sido manipulado ha estado menos expuesto a la medicación o a la radiación y se encuentra en un mejor estado. En varios meses, si todo ha ido bien, la mujer recupera su función ovárica.
Es una técnica reciente. En 2004 nació en Bélgica el primer bebé concebido tras este procedimiento experimental. En España, el primer caso tuvo lugar el mes de agosto del año pasado en el hospital Doctor Peset de Valencia. Pero el proceso presenta inconvenientes. Por un lado, el ovario solo vuelve a trabajar durante una temporada. Hasta el momento, se ha conseguido devolver la capacidad de volver a producir ovocitos en unos dos años.
Tampoco sirve para todo tipo de tumores, como las leucemias. Pero, sobre todo, no hay certeza absoluta de que al reimplantar el tejido obtenido no existan células malignas que puedan reactivarse en el cuerpo de la mujer.
Por eso, uno de los aspectos más destacados de la técnica publicada por el equipo de Sandra Carson en el Journal of Assisted Reproduction and Genetics el 25 de agosto es que evitaría de raíz este riesgo, como destaca el jefe de servicio de ginecología del hospital La Fe de Valencia, Antonio Pellicer. "Éste es el aspecto más interesante del trabajo", comenta.
Los científicos de la Universidad de Brown crearon un molde a partir de un gel (un polisacárido denominado agarosa) para usarlo como base del cultivo tridimensional sobre el que trabajaron. Sobre esta matriz recrearon el funcionamiento del ovario en el laboratorio al combinar los tres principales tipos de células del ovario.
Para que un ovocito (primer tipo celular) madure debe estar recubierto de una capa de células de la granulosa (segundo tipo) y esta, a su vez, de células de la teca (tercer tipo). Los investigadores reprodujeron este esquema. Diseñaron una estructura en forma de panal de abeja con células de la teca obtenidas de donantes y la situaron sobre el gel. Sobre esta trama encajaron cogollos de ovocitos inmaduros cubiertos de células de la granulosa también donados. A las 72 horas, las células de la teca habían envuelto totalmente los cogollos. Extrajeron los ovocitos y los investigadores observaron que habían madurado. "Es el primer éxito en el uso de ingeniería de tejidos en tres dimensiones en la maduración in vitro de ovocitos", defienden los autores de la publicación.
Quizás no sea para tanto. La revista Journal of Assisted Reproduction and Genetics tiene un índice de impacto (la forma de medir la importancia de una publicación científica) de 1,3, muy bajo en medicina reproductiva. Pero si la técnica llega a estandarizarse podría sustituir al trasplante de tejido ovárico (y evitar los problemas que lleva aparejados). Además, se podría emplear este ovario artificial de "laboratorio viviente", como lo define la propia Sandra Carson. No solo a la hora de estudiar cómo funciona un ovario sano, sino también para analizar los efectos de, por ejemplo, contaminantes en la maduración de los óvulos.
Este trabajo es una muestra más de las expectativas que abre la recreación en laboratorio de órganos biológicos de sustitución en cada vez más especialidades médicas. Uno de los grandes especialistas en la materia es Anthony Atala, director del Instituto de Medicina Regenerativa de la Universidad de Wake Forest, en Carolina del Norte. Entre los principales éxitos de esta medicina regenerativa basada en la ingeniería de tejidos se encuentra el diseño e implantación en chicos de siete a 19 años de vejigas creadas en laboratorio, que se anunció en 2006. En este caso, los órganos se crearon con las propias células de los pacientes sobre un molde biodegradable y ofrecieron buenos resultados funcionales, durante más de cinco años.
El equipo de Atala trabaja en aplicar esta técnica contra la impotencia humana. El año pasado presentó un trabajo en el que consiguió que conejos con lesiones en el pene volvieran a tener erecciones después de crear tejido cavernoso en el laboratorio y trasplantarlo a los animales. Recuperaron la función sexual y lograron reproducirse.
Con la vista puesta no en el pene, sino en los testículos, trabaja un equipo del Centro de Investigación Príncipe Felipe de Valencia. Uno de sus científicos se ha desplazado al laboratorio de Atala con la intención de crear un testículo biológico artificial. La idea de estos investigadores es estudiar la generación de espermatozoides a partir de sus células progenitoras, las espermatogonias. Y tratar de reproducir este proceso natural en un medio creado artificialmente.
Aunque quizás el proyecto más espectacular (y experimental) que se lleva a cabo en España es el diseño en laboratorio de un corazón que pudiera servir para autotrasplantarlo al paciente con dolencias cardíacas. En este proyecto participa tanto la Organización Nacional de Trasplantes, como la Universidad de Minnesota (EE UU) y el hospital Gregorio Marañón de Madrid.
En este caso, el molde no se obtiene de ninguna sustancia biodegradable, sino de otro corazón desechado para trasplante. A través de un baño de enzimas, se despoja al órgano de todas las células que conforman sus paredes, las que recubren el interior de los vasos y las válvulas hasta dejarlo en su estructura interna más básica, que no es más que una matriz. Sobre este molde se siembran células madre cardiacas para que proliferen y reproduzcan la estructura del corazón, de forma que pudiera servir para ser trasplantado.
"De momento tenemos ya bastantes matrices y estamos empezando a recelularizar partes de las piezas", comenta Francisco Fernández-Avilés, jefe de cardiología del hospital madrileño. "En el mejor de los casos, habrá que esperar 10 años para aplicar la técnica".
Existe un referente de éxito de este ensayo en España, aunque con un órgano bastante menos complejo. Se trata del trasplante de tráquea que se llevó a cabo en el hospital Clínic de Barcelona en 2008. El proceso también consistió en centrifugar la tráquea del donante a la que se le eliminaron las células capaces de despertar una reacción de rechazo en el receptor. La estructura tubular resultante se recubrió de células madre del paciente y la nueva tráquea se transfirió con buenos resultados.
Hará falta que pasen varias décadas hasta que la sustitución, pieza a pieza, de órganos complejos bioartificiales demuestre su eficacia y, quién sabe, forme parte de la cartera de servicios de la sanidad española. O de los talleres de la medicina del futuro.

“Este ovario artificial nace, crece y reproduce” El País 17 de septiembre 2010.


1. ¿En qué consiste la reprogramación celular?
2. ¿Qué pretende la medicina regenerativa?
Tiene como objetivo poder recrear un corazón y otros órganos a partir de esta técnica.
3. ¿Qué han logrado en la Universidad de Brown y en el Hospital de la madre y el hijo de New York?
Han conseguido madurar ovocitos, para que puedan ser fecundados e implantados como embriones.
4. ¿Cómo construyeron en la Universidad de Brown el ovario artificial y qué consiguieron?
Gracias a un gel que utilizaron como molde para implantar las células necesarias para la maduración del ovocito, sin necesidad del tejido ovárico.
5. ¿En qué consiste y cuándo está indicado el reimplante de tejido ovárico?
Consiste en extraer, parte del tejido ovárico antes de un tratamiento fuerte como la quimioterapia, y una vez haya finalizado esta implantarlo de nuevo para que la mujer recupere la fertilidad. Esta técnica permite que la mujer mantenga la fertilidad por un máximo de dos años después del reimplante, y está contraindicado para los casos de leucemia ya que las células cancerosas podrían reactivarse.

6. ¿Qué pretenden hacer, en esta línea, en el Centro de investigación príncipe Felipe?

Pretende poder producir testículos artificiales biológicos.

7. ¿Qué pretenden hacer, en esta línea, en el Hospital Gregorio Marañón?

Poder recrear un corazón, a partir de un corazón desechado para trasplante, implantándole células madre.

8. ¿Y en el Hospital Clinic de Barcelona?

En el hospital clinic de Barcelona ya lo han realizado, pero en vez de con un corazón, ha sido con la tráquea, y sus resultados han sido bastante buenos, aunque los que pretende el hospital Gregorio Marañón, es más ambicioso pues se trata de un órgano mucho más complejo.

La genética personal topa con la patente

Diez años después de la secuenciación del genoma humano, el 20% de los genes está registrado - Los expertos alertan del peligro de entorpecer la medicina personalizada

MÓNICA GONZÁLEZ SALOMONE 31 MAR 2011Compartir



En la mayoría de las enfermedades intervienen muchos genes a la vez, y es ahora, una década después de la secuenciación del genoma humano, cuando los investigadores empiezan a poder entender, en algunos casos, cómo funciona este concierto genético. Pero en el horizonte se vislumbran problemas. Alrededor de un 20% de los genes humanos están patentados. ¿Entorpecerán las patentes el desarrollo de la medicina personalizada, basada en pruebas diagnósticas que buscan no uno, sino muchos genes? Sentencias recientes han reabierto el debate. Mientras, sociedades científicas y la Administración estadounidense piden que las patentes se adapten a los nuevos tiempos.

Un gen humano solo es patentable si su función está descrita

Hay poca evidencia de que los registros hayan servido para innovaciones
Se cumplen ahora diez años de la publicación en las revistas Nature y Science del primer borrador del genoma humano, el libro de instrucciones del Homo sapiens. En este tiempo los investigadores se han dedicado a perfeccionarlo; a interpretar su significado; y a tratar de sacarle provecho médico. Y aquí hay unanimidad: lo mejor está aún por llegar.
Es cierto que los test genéticos para diagnosticar e incluso tratar cánceres se usan cada vez más. También son necesarios, por ejemplo, para seleccionar embriones en reproducción asistida. Recientemente, el Hospital Sant Pau en Barcelona anunció el nacimiento del primer niño en España sin mutaciones en el gen BRCA1 que causan el 5% de los tumores de mama. Pero esto es apenas la punta del iceberg.
En los años ochenta y noventa se tardaba una década o más en identificar un único gen. Así se encontraron el BRCA1, el de la enfermedad de Huntington o el de la fibrosis quística, entre otros. Ahora las técnicas de secuenciación leen millones de letras del genoma al día. "Dentro de poco se habrán secuenciado decenas de miles de genomas humanos", escribía Peter Donnelly, Director del Wellcome Trust Centre for Human Genetics (Oxford, Reino Unido), en el especial con que Science celebra el décimo cumpleaños del genoma humano. El resultado es que se conocen ya miles de genes implicados en cientos de enfermedades, y que se abre la vía a la tan anunciada -para algunos prematuramente- medicina personalizada.
Lo que llega es un cambio de paradigma. En un futuro próximo las pruebas genéticas para múltiples genes ayudarán a estimar la efectividad de los tratamientos para cada paciente, y sus efectos secundarios. "Los tests están atravesando una revolución", se afirmaba ya en 2010 en Nature.
"Cuando se secuenció el genoma humano, hace diez años, probablemente se le pedía más de lo que podía dar", dice Carlos López Otín, director en la Universidad de Oviedo de uno de los equipos participantes en el proyecto internacional Genoma del Cáncer. "Pero ahora la tecnología se ha desarrollado de forma extraordinaria, y está generando una cantidad de información genética abrumadora. Hoy ya no identificamos un gen, sino sus variantes, su interacción con otros genes, sus cambios patológicos...".
Pero muchos creen que las patentes de genes pueden ser un obstáculo para la medicina a medida. Entre los miles de genes patentados están alrededor de la mitad de los que se sabe que están implicados en tumores, y también muchos relacionados con otras enfermedades. En 2005, un estudio en Science contabilizaba 4.382 genes humanos bajo patente, de los 23.688 conocidos entonces en el genoma humano. La cuestión es: ¿se lanzarán las compañías al desarrollo de kits genéticos con múltiples genes si para ello deben hacer frente a una maraña de licencias? "La aplicación estricta de las patentes de genes podría hacer que los test genéticos cayeran en la trampa de una intrincada red de patentes (...). Esto amenaza con entorpecer la innovación", han afirmado los editorialistas de Nature.
La cuestión de las patentes de genes es una vieja herida sin cerrar. En los noventa, cuando las técnicas aceleraron el proceso de secuenciación, hubo un aluvión de solicitudes. Se intentaron patentar cientos de secuencias genéticas, incluso sin saber su función.Y muchos protestaron con argumentos éticos: ¿es patentable algo que forma parte del organismo? ¿Puede un gen ser de alguien?
Tanto EE UU como Europa respondieron sí, con una condición. Los genes humanos aislados fuera del organismo- sí son patentables, pero se debe conocer su función. "El gen en sí se ve como un producto químico, lo que aparece en la patente es una fórmula", dice Francisco Fernández Brañas, director de Biotecnología de la Oficina Europea de Patentes. "Es patentable siempre que su función esté descrita y que sea la solución a un problema, es decir, que sirva para tratar o diagnosticar una enfermedad, por ejemplo".
Esta condición, recogida en la directiva sobre patentes biotecnológicas de 1998 y las directrices de 2001 de la Oficina de Patentes de EEUU, hizo que disminuyeran las solicitudes. También la publicación del genoma humano -si la secuencia ya es conocida se incumple el requisito de novedad exigido en las patentes-. El mensaje era claro: el conocimiento de la secuencia de un gen no se premia con una patente, pero sí las aplicaciones de ese conocimiento. El fin último es estimular la innovación: "En el campo de la medicina si a una empresa no se le garantiza un cierto retorno nadie va a desarrollar nada", dice Fernández Brañas.
El problema ahora es que, a diez años vista, no está claro que las patentes hayan logrado su objetivo. "Hay muy pocas evidencias de que hayan promovido las innovaciones en el diagnóstico", escribió el mes pasado en Science Robert Cook-Deegan, experto en propiedad intelectual y genómica de la Universidad de Duke (EEUU).
Lo mismo opina Gert Mathijs, del Centro para la Genética Humana de la Universidad de Leuven (Bélgica), muy activo en la oposición a patentes de genes solicitadas en Europa: "Normalmente son importantes para favorecer el desarrollo de nuevas herramientas para el diagnóstico, pero hay evidencias de que pueden afectar negativamente a la oferta de servicios genéticos".
El pasado año el Departamento de Salud estadounidense publicó un informe que analizaba específicamente el efecto de las patentes de genes en el desarrollo de pruebas diagnósticas. Su conclusión es que los test genéticos no patentados, o comercializados bajo licencias no exclusivas, están mucho más difundidos que los test derivados de licencias exclusivas. La primera situación es, por ejemplo, la de los genes de la fibrosis quística y del cáncer colorrectal, para los que hay tests comercializados por más de cincuenta compañías.
El test de los genes BRCA1 y 2, por el contrario, es un monopolio derivado de una licencia otorgada en exclusiva por Myriad Genetics. Tras el informe de 2010, el Departamento de Salud de EE UU ha recomendado que las patentes de genes no se apliquen en el diagnóstico -tampoco en la investigación, pero esto ya era así-.
"Cuando hay miles de genes con un sinfín de propietarios, ¿cómo nos abriremos camino en el entresijo de patentes resultante para facilitar la aplicación de genotipados múltiples, o para analizar genomas completos?", se preguntaba James P. Evans, del departamento de Genética de la Universidad de Carolina del Norte y uno de los autores del informe, en la revista Genetics in Medicine.
Para muchos el problema no es tanto la patente en sí, sino la definición de lo que cubre y, sobre todo, la política de licencias. La Sociedad Europea de Genética Humana reconoce que las patentes deben "promover la innovación mediante una recompensa justa" a los inventores, pero recomienda "limitar su amplitud" y que las licencias para explotarlas no se concedan en exclusiva.
En este panorama, han vuelto a renacer las dudas éticas sobre la patentabilidad de los genes humanos. Hace un año, un juez de Nueva York invalidó las patentes de Myriad Genetics sobre BRCA1 y 2. En la sentencia, solo aplicable en una parte del estado de Nueva York, se considera a los genes "productos de la naturaleza" y por tanto no patentables. "Esta sentencia va en contra de toda la práctica de jurisprudencia en Europa y Estados Unidos, y la industria biotecnológica ha sido muy crítica", dice Fernández Brañas. "Se espera con mucho interés la decisión de la Corte Federal estadounidense, ante la que el caso ha sido recurrido".
Pero lo cierto es que no sólo quienes se oponen por motivos éticos a las patentes de genes ven en las del cáncer de mama hereditario un ejemplo a evitar. El test genético que Myriad comercializa de forma exclusiva en EE UU cuesta más de 2.000 euros. El grupo de pacientes, investigadores y médicos que interpuso la demanda en Nueva York afirmaba que la patente obstaculizaba la investigación y los tratamientos. No es la primera vez que Myriad Genetics está en el punto de mira. En Europa, ya en 2005, una coalición formada por instituciones médicas y de investigación, Greenpeace e incluso Holanda y Austria se opusieron a las patentes de BRCA1 y BRCA2 y lograron que la Oficina Europea de Patentes las denegara o redujera considerablemente el ámbito de protección.
"El proyecto genoma humano ya incluyó desacuerdos sobre la política de patentes", dice Cook-Degan en Science; "ahora los desacuerdos continúan, pero los efectos de la incertidumbre se hacen notar en las decisiones de inversión de compañías que decidirán qué tecnologías genómicas realmente se desarrollarán. Es importante reducir esta incertidumbre". Los derechos de propiedad intelectual no sólo tienen que ver con la Ley Sinde.

“La genética personal topa con la patente” El País 31 de marzo 2011.




1. ¿Un gen puede tener dueño? Explícate.

En la actualidad miles de ellos están patentados, pero no deberían de estarlo, ya que estamos patentando la naturaleza y poniendo trabas a nuestro futuro desarrollo y bienestar.

2. ¿Qué decidió un juez de New York sobre la patente de los genes BRCA 1 y 2?

El juez invalido las patentes para los genes BRCA 1 y 2.

3. ¿Qué es la medicina personalizada y cuál es la principal dificultad con la que se está encontrando?

Ayuda a estimar la efectividad de los tratamientos, para cada paciente, la principal dificultad se encuentra en que la mayoría de genes están patentados.

4. ¿Qué se ha descubierto tras la secuenciación del genoma humano respecto de la mayoría de las enfermedades que nos aquejan?



5. ¿Para qué sirven los test genéticos en la actualidad? ¿Y en el futuro?

Para diagnosticar y tratar cánceres, abriendo las puertas de la medicina personalizada.

6. ¿Cuántos genes tiene nuestro cromosoma nueve y cuántos de ellos están patentados?

El cromosoma 9 tiene 1086 genes de los cuales 233 se encuentran patentados.

7. ¿Cuántos genes humanos están patentados y en qué están implicados?

En la actualidad se encuentran patentados 4382 genes, y muchos de ellos están implicados en tumores y otras enfermedades.

8. ¿Qué efecto tienen las patentes de genes en el desarrollo de pruebas diagnósticas?

Entorpecerían las pruebas ya que multitud de genes se encuentran patentados.

9. ¿Cita o explica una contradicción de la Directiva Europea de Protección Jurídica de las Invenciones Biotecnológicas?

Que pueden patentar los genes siempre y cuando conozcan la funcionalidad y no sea pública su secuencia. Pero  han publicado el genoma evitando las posibles patentes, pero necesitan incentivar a las empresas para que investiguen ya que si no, no investigarían.