10 inventos que nos hicieron más fácil la vida
Pueden no tener la relevancia de las 25 innovaciones a las que nos referimos en este informe. Pero qué difícil que nos sería vivir sin las siguientes diez creaciones.
-Cámara digital: salió al mercado en 1986 con un costo altísimo. Tres años después, durante la Guerra del Golfo, los reporteros gráficos empezaron a usarla, pero sólo se hizo popular entre la gente común en la pasada década, cuando alcanzó precios normales. Una pregunta: ¿cuándo fue la última vez que usted compró un rollo?
-Photoshop: lanzado en 1990, este programa permite trabajar los documentos (normalmente fotografías) como si se tratara de lienzos, en los que es posible pintar, retocar y hacer todo tipo de modificaciones. Gracias a él, ahora todo el mundo sale perfecto y hermoso en las fotos.
-Realidad virtual: en 1989, Atari sacó al mercado la primera máquina de juego que generaba en quien la usaba el efecto de estar en un mundo distinto, a través de tecnología 3D. Hoy, muchísimo más avanzada, la realidad virtual se usa en la medicina, la simulación de vuelos, el urbanismo y el entretenimiento.
-Touchscreen: nada más ni nada menos que la cada vez más común pantalla táctil, que usamos en teléfonos inteligentes, iPods, computadores y juegos electrónicos. Puesta en el mercado a finales de los 80, continúa su lucha por quitarle el poder a los teclados. ¿Lo logrará?
-Wi Fi: bastante joven para ser tan popular: en 1999, Nokia y Symbol Technologies hicieron una alianza que tan sólo en 2003 tomó el nombre de Wi Fi, y que, como el mundo sabe, ofrece conexión inalámbrica para dispositivos electrónicos. Ahora no hay bar, restaurante y café, que no ofrezca este servicio.
-LED: el Light Emitting Diode es un diodo luminoso que se ha convertido en una de las formas de iluminación más comunes hoy. Aunque fue inventado en 1927 y sólo se comenzó a usar en los 60, fue en los 90 que al fin consiguió un alto brillo completamente blanco. Salga a la calle. Buena parte de las luces que va a ver, seguramente serán LED.
-DVD: en 1996, estos discos ópticos de almacenamiento de datos, reconocidos por su gran calidad tanto de sonido como de imagen, remplazaron para siempre a los casetes de VHS (por no hablar de los Beta, ¿alguien los recuerda?).
-USB: el Universal Serial Bus (bus universal en serie) apareció en 1996 y, con los pequeños formatos de sus memorias y amplia capacidad de almacenamiento, significó el fin de los disquetes. ¿O es que usted todavía los usa?
-Redes sociales: habrá muchas, pero cuando pensamos en ellas sólo una viene a nuestra mente. ¿Y es que hay algo más divertido que dar de vez en cuando un paseo por Facebook (2004), para enterarnos de lo que pasa en las vidas de nuestros amigos? Bueno, la otra red de importancia es Twitter (2006), favorita de nuestros políticos.
-Google: el motor de búsqueda más usado en el mundo. O también: el que todo lo sabe (ha hecho historia una frase que dice: 'Google es Dios'. Bueno, no es para tanto, pero...). Puesto en internet el 27 de septiembre de 1999, se convirtió en el colaborador de todos los estudiantes a la hora de hacer tareas y muchos dicen que significó el fin de las enciclopedias.
INTERNET: CONECTADOS CON EL MUNDO La famosa Red llegó para cambiar definitivamente nuestras vidas, desde la forma en que nos comunicamos hasta la forma en que consumimos.
¿Cuándo fue la última vez que escribió una carta, la metió en un sobre, la estampilló y fue hasta la oficina de correos para que la mandaran a su destinatario? ¿Ha dejado de ir a los bancos para pagar sus facturas porque puede hacerlo desde su computador? ¿Recuerda la última vez que consultó un dato en el tomo de una enciclopedia en lugar de preguntárselo a Google?
Gracias a Internet, ahora mandamos correos electrónicos, hacemos compras sin salir de la casa y resolvemos nuestras dudas en cuestión de segundos: pocas cosas han causado un impacto tan grande en los últimos años como este conjunto de redes de comunicación que conecta computadores en cualquier parte del mundo para el intercambio de información por medio de un lenguaje común denominado TCP/IP.
Creada en la década de los 60 con fines militares, la difusión pública de Internet se hizo en 1986, y desde entonces ha cambiado la educación, la investigación, el comercio, el trabajo y el tiempo libre trascendiendo las fronteras físicas y diluyendo las distancias entre las personas. Con su creación, se han transformado desde las industrias ―la de la música es un buen ejemplo de ello― hasta las relaciones entre las personas, que ahora se mantienen en contacto por medio de las redes sociales, donde comparten información multimedia y están al tanto de sus amigos y colegas.
Aunque la cobertura de Internet aún no es universal, su breve historia ha demostrado que es un campo fértil para nuevos desarrollos que seguirán cambiando el mundo. En este sentido, Martha Vives, de Colciencias, sostiene que en el futuro "se disminuirá cada vez más la brecha digital, se incrementarán las empresas y los programas de educación virtual, así como las instituciones educativas no presenciales, las cuales usarán más los laboratorios remotos, y se tendrá más capacidad para manejo de datos". En pocas palabras, habrá cada vez más migración hacia los ambientes virtuales. En un mundo virtual, estar en Internet no sólo es cuestión de adaptación sino también de necesidad.
"Los usuarios pasan la mitad del día en Internet y las marcas deben estar donde sus usuarios están"
Andrés Rodríguez, country manager de Ariadna Colombia.
"Hoy en día un consumidor cualquiera tiene a mano toda la información de un producto sin necesidad de ir a la tienda. Puede ver sus comerciales en Youtube al tiempo que encuentra opiniones de otros usuarios en la misma red social. Puede ir a Google y leer desde la página oficial de la compañía hasta blogs con opiniones de expertos. Puede estar en Facebook y conocer de primera mano los lanzamientos, políticas o anuncios, al tiempo que entra en conversación directa con la marca (para bien o para mal). Los usuarios están pasando la mitad de su día en Internet y las marcas deben estar donde sus usuarios están".
ALMACENAMIENTO DE ENERGÍA: CON LAS PILAS PUESTASEn los últimos años, el crecimiento del uso de teléfonos celulares y toda clase de objetos móviles e inalámbricos, llevó a la humanidad a buscar nuevas formas de guardar la mayor cantidad de energía en baterías cada vez más mínimas. Claro, otra razón fue el inminente riesgo ambiental.
¿Almacenamiento de energía? Carlos Arturo Ávila, experto en Física experimental de altas energías y profesor de la Universidad de los Andes, lo define así: "Es el uso de dispositivos o sistemas que permitan conservar cierta cantidad de energía potencial para posteriormente ser liberada en una aplicación determinada. Un ejemplo sencillo es el de un resorte. Cuando se oprime y se mantiene comprimido, se está almacenando energía, que posteriormente podemos usar en el momento en que consideremos apropiado, soltando el resorte". Y después, añade: "Un niño comprime un resorte cuando le da cuerda a un juguete; pues bien, posteriormente libera esa energía acumulada produciendo que el juguete se mueva".
El almacenamiento de energía es tan antiguo como la humanidad misma. Ya en 1800, el italiano Alessandro Volta consiguió desarrollar parcialmente la pila eléctrica. Y aunque ha pasado bastante tiempo y la tecnología de almacenamiento de energía ha avanzado muchísimo, la pila ―la batería― sigue siendo el más clásico ejemplo de este adelanto tecnológico. "Es un dispositivo que almacena energía eléctrica, usando procedimientos electroquímicos, y que luego la devuelve casi en su totalidad. Este ciclo puede repetirse un determinado número de veces. Se cumplen ciclos de carga y descarga", anota Yesid Ojeda, ingeniero químico que trabaja en el Programa Nacional de Investigaciones en Energía y Minería de Colciencias.
Ahora bien, como lo anota el mismo Ojeda, "la situación actual del mundo pone en evidencia una gran preocupación sobre los procesos de generación y utilización de la energía, debido a los impactos ambientales que generan, lo que es un llamado a incrementar la eficiencia energética y la búsqueda de nuevas alternativas de energía".
Pero la otra preocupación se relaciona con el uso de elementos que necesitan funcionar sin estar conectados. Es, en buena medida, la producción de celulares, computadores portátiles, cámaras y sistemas de audio, lo que ha movido al mundo científico a desarrollar formas de almacenar grandes cantidades de energía en pequeños espacios. Y lo ha logrado. No por nada, cada vez tenemos que poner a 'cargar' menos nuestros celulares, por ejemplo. Pero todavía falta. De ahí que el interés por buscar formas de almacenamiento siga creciendo inmensamente. En este cuarto de siglo aparecieron conceptos como el de los ultracondensadores (condensadores electroquímicos que poseen una densidad energética inusualmente alta), las centrales hidroeléctricas reversibles (usan la energía que producen para producir más energía sobre el agua), las baterías de zinc-aire (dependen del oxígeno de la atmósfera para generar una corriente), las de ion-litio (ligeras y de gran capacidad energética) y el vehículo solar (motor eléctrico alimentado con energía del sol). Para el futuro se habla ya de buscar formas de almacenar la energía que produce nuestro cuerpo, la que generan nuestro pasos, la del calor de los carros y, por supuesto, la de las tormentas eléctricas.
"El almacenamiento de energía juega un papel importante en los proyectos de fuentes renovables"
Luis Fabián Ocampo. Coordinador del grupo de gestión de proyectos del IPSE (Instituto de planificación y promoción de soluciones energéticas para las zonas no interconectadas).
"Hoy, en las comunidades indígenas más recónditas del país se encuentran equipos celulares de última tecnología, que tienen incorporada su batería de larga duración y en algunos casos son recargados a través de sistemas solares. Tengo la percepción de que la última batería que compré ha mejorado los arranques de mi carro, haciéndolos más rápidos y confiables. Además, he estado varias semanas por fuera de la ciudad y al regreso el auto encendió como si nada. El almacenamiento de energía juega un papel importante en los proyectos energéticos que tienen como base el uso de fuentes renovables en las zonas aisladas del país".
TELEFONÍA CELULAR: DISPONIBLES A TODA HORAGracias a un aparato que cada vez se hace más pequeño y sofisticado, nos acostumbramos a estar siempre conectados y nos olvidamos para siempre de los teléfonos públicos.
Aquel que en 1986 compró uno de esos inmensos teléfonos celulares que empezaban a comercializarse en el mundo, qué iba a imaginar que 25 años después la tecnología de esos aparatos iba a llegar a los límites de hoy. Un celular modelo 2011 es mucho más que un teléfono: es un pequeño computador, un ayudante que cada vez nos resuelve más la vida. Ni siquiera el mismo Martin Cooper, a quien se le considera el padre del teléfono móvil, llegó a pensar en lo tecnificado y necesario que aquel dispositivo iba a ser. Él sólo ―tal y como alguna vez lo confesó― quiso hacer algo parecido a lo que usaba el Capitán Kirk en la serie Star Trek. Pero en estos 25 años el mundo y la tecnología corrieron a mil. El celular, para muchos, puede ser el gran objeto, el aparato por antonomasia, del último cuarto de siglo.
Habla Edison Pérez, investigador de Colciencias: "Le ha brindado a las personas comunicación inmediata, móvil, y acceso en tiempo real a la información. Esta es una invención que día a día sufre innovaciones significativas, desde el desarrollo de redes inalámbricas cada vez más eficientes y que trasportan mayores volúmenes de datos y voz, la opción de Internet móvil y todo el concepto de aplicaciones móviles, hasta los actuales desarrollos complejos de software para aplicaciones en redes sociales y banca móvil".
Pero ¿qué es realmente un teléfono móvil? Marcelo Ruiz, experto en telecomunicaciones y director regional de la firma Frost & Sullivan, dice: "La telefonía celular básicamente está formada por dos grandes partes: una red de comunicaciones (o red de telefonía móvil) y los terminales (o teléfonos móviles) que permiten el acceso a dicha red. El teléfono móvil es un dispositivo inalámbrico electrónico. Se denomina celular debido a que el servicio funciona mediante una red de celdas, donde cada antena repetidora de señal es una célula. Su principal característica es la ubicuidad, que permite que nos comuniquemos desde cualquier lugar".
Según Pérez, el auge de la telefonía móvil se dio a partir de 1990 y en América Latina arrancó dos años después.
¿Y el mañana? Falta muy poco para que en nuestro celular podamos ver televisión de alta definición, así como para que a través de él revisemos contadores de agua y luz y encendamos alarmas. "Y para que lo usemos también como una billetera electrónica y no tengamos que usar tarjetas ―añade Ruiz―. En el futuro la sociedad va a ser móvil y ubicua; tendremos toda la información personal y profesional en un dispositivo".
"La revolución de la telefonía celular nacerá en los países emergentes"
Hans Christian Boehlke, director comercial de Celumanía.
"Sólo vemos la punta del iceberg de la gran revolución que viene. La telefonía móvil cambió mi vida. Celumanía es un integrador de servicios de valor agregado tanto para el mercado masivo como corporativo. Por el lado masivo, de la mano de los operadores celulares, la empresa busca implementar servicios que son útiles para el común de la gente. Por ejemplo, ofrecemos a través de nuestras comunidades vía SMS servicios donde les permitimos publicar a las personas lo que hacen o lo que están vendiendo para que otras personas los contraten o les compren. En la parte corporativa, ofrecemos servicios a empresas que quieren mantener comunicación constante con sus accionistas, clientes, proveedores y empleados. Queremos hacer parte de esta revolución de la telefonía celular, que nace de los países emergentes".
GPS: LOS MAPAS DE HOYLos conductores cada vez preguntan menos por direcciones en la calle. Un pequeño aparato los lleva sin error hasta su destino.
Fotografía: Manuel Rodríguez
Aunque existe comercialmente desde hace más de una década, el GPS (Global Positioning System, o Sistema de Posicionamiento Global) aún parece un elemento del futuro. ¿O es que acaso no resulta increíble poder determinar la posición de un objeto en cualquier lugar del mundo, con una precisión de centímetros?
Entró en servicio en la década de los 60, dentro del esquema militar estadounidense. Ya en 1984, se empezó a producir comercialmente, pero fue sólo en la década de los 90 que el mundo puso sus ojos en él y descubrió la utilidad que podría tener en la vida diaria, más allá del mundo militar.
Edison Pérez, investigador de Colciencias, anota: "Es la innovación más importante de los últimos diez años, y su rango de aplicación es inmenso, desde la navegación (terrestre, peatonal, naval, aérea) que ha permitido la optimización del transporte y los sistemas logísticos, pasando por su utilidad en seguridad y defensa, hasta aplicaciones en agricultura, exploración y explotación minera, construcción, cartografía, salvamento y rescate. A través de este desarrollo se ha incentivado, obviamente, el desarrollo de la tecnología de los satélites".
Cómo no, si la tecnología del GPS está íntimamente ligada a la carrera satelital de los últimos tiempos, pues su funcionamiento depende de esas (24 exactamente) grandes y misteriosas máquinas blancas que giran en torno a nuestro planeta. "Los receptores GPS pueden recibir, y habitualmente lo hacen, la señal de más de tres satélites para calcular una posición ―explica Vladimir Montealegre, gerente de Rastreo Satelital de Colombia―. En principio, entre más señales reciben, más exacto es el cálculo de la posición".
Y en la vida diaria, ¿vale la pena contar con uno de estos aparatos? Según Natalia Araque, de la empresa Finder, cada vez es más común su uso como una guía para saber de qué manera llegar a un lugar determinado, o como un mecanismo de seguridad para las empresas de transporte (ver recuadro) y como un indicador del lugar adecuado para cultivar. De ahí que algunos digan que el éxito comercial de GPS implica el fracaso de los mapas y de algunas estrategias de defensa.
Eso sí, aún falta mucho. Pérez comenta: "Esta tecnología, en pleno proceso de masificación, tiene diversos retos, entre los cuales está la interoperabilidad con otros sistemas de posicionamiento global en proceso de desarrollo, como el Galileo de la Unión Europea, el GLONASS ruso o el BEIDOU chino". Una demostración de que, para bien o para mal, la llamada globalización aún está lejos de ser total.
"Ahora duermo más tranquilo"
Baudilio Escobar Gómez, propietario de una compañía de transporte.
"Soy dueño de tres tractocamiones y antes de adquirir el sistema de rastreo satelital vivía con una constante incertidumbre, no tenía la certeza de dónde se encontraban mis vehículos, si estaban trabajando o no; no tenía cómo verificar si era cierta la información que me daban los conductores. Desde que adquirí el servicio de rastreo satelital duermo más tranquilo. Puedo monitorear por Internet la ubicación precisa de mis vehículos, así como el recorrido que han realizado, o en caso de no tener computador o red disponibles, puedo llamar a la central de monitoreo para que me informen la ubicación".
LA VÁLVULA DE HAKIM: TECNOLOGÍA COLOMBIANA PARA TRATAR LA HIDROCEFALIA Desde 1986, una enfermedad que afecta a millones de personas en todo el mundo, dejó de ser un dolor de cabeza para los médicos, gracias a una pequeña válvula creada por un científico colombiano.
Salomón Hakim Dow describió el síndrome de hidrocefalia de presión normal (HPN) en los años 60: se trata del aumento del líquido cefalorraquídeo en las cavidades ventriculares del cerebro sin que haya aumento de la presión intracraneana y es también conocido como hidrocefalia crónica del adulto o síndrome de Hakim, en honor al médico que además ideó un tratamiento "consistente en un procedimiento quirúrgico que era necesario repetir periódicamente para hacer ajustes del sistema de drenaje. Sin embargo, esto era poco práctico por los costos y los riesgos asociados a cada intervención", según anota Pablo Patiño, director de Fomento a la Investigación de Colciencias.
La solución a este problema fue patentada en 1986 por el mismo Salomón Hakim Dow y su hijo Carlos, quienes crearon una válvula programable que se instala fuera de la cavidad craneana y se conecta tanto a las cavidades del cerebro como al corazón, para que el líquido salido del cerebro haga parte de la circulación y se pueda regular la presión. "La gran ventaja de la válvula ―de acuerdo con Pablo Patiño― es que gracias a su mecanismo puede ser programada para mantener el flujo adecuado de líquido cefalorraquídeo hacia fuera del cráneo y de esta manera evitar las consecuencias que el exceso de dicho líquido tiene sobre el tejido nervioso".
La investigación para tratar la hidrocefalia, a pesar de la efectividad de la válvula, no para, y actualmente Carlos y Fernando, los hijos del doctor Hakim, continúan mejorando un legado que ha salvado millones de vidas alrededor del mundo. "El futuro de las válvulas es promisorio ―dice el neurocirujano Fernando Hakim―, ya que cada día conocemos más el funcionamiento de la dinámica de la cavidad craneana y de esta manera estamos mejorando las posibilidades de un sistema autorregulable que adapte le presión en forma automática de acuerdo a cada paciente".
"Antes de que existiera la válvula, los tratamientos de la hidrocefalia no tenían buenos resultados"
Fernando Hakim Daccach, neurocirujano, hijo de Salomón Hakim Dow.
"La válvula se utiliza en todo el mundo para el manejo de todas las hidrocefalias. Las primeras válvulas sólo tenían un rango de presión; las actuales son programables, esto quiere decir que en una única válvula uno tiene la capacidad de cambiar la presión de acuerdo al estado de cada paciente. Si, posterior a la implantación, la hidrocefalia no se corrige por completo (antes había necesidad de cambiar la válvula por una de otra presión), la gran ventaja de la programable es que se le cambia la presión al paciente en cinco segundos de manera no invasiva con un computador en el consultorio. Esto equivale a tener 18 válvulas en una, ya que tiene 18 posibilidades de variación de la presión, de acuerdo a la necesidad de cada paciente".
CIRUGÍA PLÁSTICA: SIEMPRE JÓVENES, SIEMPRE BELLOS ¿Quiere adelgazar?, ¿lucir de quince?, ¿verse más voluptuosa o perfeccionar su nariz? En los últimos 25 años todas las formas de embellecimiento se hicieron posibles. Basta con pasar unas horas por el quirófano.
Pablo Javier Patiño, director de fomento de investigación de Colciencias, asegura que hay evidencias de que en la India y luego en Egipto, Grecia y Roma, se realizaron procedimientos para reparar tejidos u órganos dañados. Durante la Primera Guerra Mundial, el otorrinolaringólogo neozelandés Harold Gillies, al corregir las lesiones faciales de los soldados heridos, desarrolló muchas de las técnicas que actualmente usa la cirugía plástica.
Fue a partir de este momento que empezó el desarrollo de las técnicas médicas y quirúrgicas para mantener o restaurar las características de la apariencia, o incluso para aumentarlas más allá del promedio y llevarlas a algún ideal estético. Patiño afirma que estas cirugías han tenido un crecimiento sostenido en todo el mundo: "El número de procedimientos cosméticos realizados en los Estados Unidos se ha incrementado más de un 50% desde los comienzos del siglo actual. Según las estadísticas de la Sociedad Americana de Cirugía Plástica, la cirugía de aumento mamario se mantiene como el procedimiento quirúrgico más popular realizado por los cirujanos plásticos, con más de 318.000 pacientes sometidas a esta cirugía, de los cerca de 9,5 millones de procedimientos cosméticos quirúrgicos y no quirúrgicos realizados en Norteamérica en 2010".
Según Sergio Andrade, cirujano plástico, en el último cuarto de siglo los avances se han dado en "la cirugía endoscópica para elevación de cejas, el láser en todos sus aspectos, la mejoría en los implantes mamarios y faciales, la incorporación de radiofrecuencia, el ultrasonido y el láser en liposucción y las máquinas tonificantes. Y el perfeccionamiento de absolutamente todas las técnicas quirúrgicas, tales como la abdominoplastia, la lipoescultura facial y los implantes pilosos".
Andrade piensa que, con el rápido avance de la tecnología, no sería raro que en unos años las personas puedan pararse dentro de un tubo que modificará absolutamente todo lo que se necesite, incluyendo la estatura, para que quien lo desee obtenga el cuerpo soñado.
"Pese a sentirme bien, decidí perfeccionar algunas partes de mi cuerpo"
Martha Liliana Ruiz, exreina y actriz.
"Hace cinco años, y luego de dar a luz a mi tercera hija, bajar de peso para mí era casi imposible. Tenía 41 años, había subido 21 kilos y el tamaño de mi busto me estaba trayendo problemas. En mi caso, mi trabajo exige un buen físico y, aunque estaba contenta como era, me sometí a la intervención porque sabía que podría rejuvenecer sin perder mi esencia. Entonces me reduje el tamaño del busto, me hice una liposucción, una lipectomía, me reduje pómulos y me hice la nariz".
PROZAC: LA PASTILLA DE LA ALEGRÍA En el apresurado mundo de los últimos 25 años, la depresión y la tristeza se convirtieron en algo común. ¿La solución de muchos? La fluoxetina, conocida por todos como Prozac.
A partir de la idea de que el neurotransmisor serotonina tenía un efecto esencial en el estado de ánimo de los seres humanos, a principios de los años 70 los investigadores Bryan Molloy y Robert Rathbun descubrieron y desarrollaron una molécula que inhibía la recaptura de la serotonina por parte de las neuronas. Es decir, como lo explica Pablo J. Patiño, director de fomento de investigación de Colciencias, "crearon un fármaco que, al aumentar la concentración de serotonina en ciertas zonas del cerebro, evitaba o disminuía la depresión anímica". En este momento su nombre genérico era fluoxetina. En 1975 fue comercialmente conocido como Prozac y en 1987 inició su venta tras la aprobación de la FDA, Food and Drug Administration (Administración de Alimentos y Medicamentos).
Pese a no ser el único medicamento creado para cumplir con esta función, el Prozac es química y farmacológicamente diferente de los antidepresivos tradicionales o convencionales (tricíclicos). "Muchos lo consideran como el desarrollo científico que revolucionó el tratamiento de la depresión; ha sido denominado por algunos como la 'droga de la felicidad' ―dice Patiño―. La historia del desarrollo de la fluoxetina ha dejado una enseñanza importante en el campo de la investigación en psicofarmacología, pues hasta hace poco los medicamentos usados para tratar desórdenes psiquiátricos se descubrían gracias a una afortunada relación entre el azar y el ingenio".
Pero además de su descubrimiento, se han diseñado moléculas que apuntan a blancos terapéuticos con mecanismos de acción más específicos, a partir de elementos de la farmacogenética, la ingeniería genética y la bioingeniería, que ayudan a evitar los efectos secundarios o colaterales de estas medicinas.
Existen estudios con ratones que revelan que el fármaco estimula el desarrollo de nuevas neuronas en el cerebro, llevando a pensar que la neurogénesis puede ser parte del mecanismo que alivia la depresión. Aunque Lou Marinoff, en su libro Más Platón y menos Prozac, propuso a la filosofía como terapia, todavía son muchos los que encuentran en este medicamento la mejor opción para acabar con la angustia y la tristeza. ¿Sí será tan maravilloso? Un viejo proverbio asegura: "De eso tan bueno, no dan tanto".
"Esta píldora demuestra que el hombre ha logrado crear herramientas para mejorar la vida".
Félix Cantoni, médico psiquiatra.
"Cuando la depresión es demasiado fuerte y las consecuencias de ella son amenazantes (enfermedad física, tendencias suicidas, alcoholismo y/o adicciones), la combinación de un proceso de psicoterapia (que busque recuperar la autoestima y resolver los conflictos y carencias internas que están detrás del sufrimiento), con la administración de psicofármacos que alivian el desánimo y la parálisis ―como Prozac―, ofrece la mejor oportunidad terapéutica".
IMPRESORA 3D: LA FOTOCOPIADORA DE IDEAS Parece ciencia ficción, pero es real: hace dos décadas, una máquina imprime productos en tercera dimensión totalmente terminados y ensamblados.
Edison Pérez, asesor de programa nacional de electrónica, telecomunicaciones e informática de Colciencias, asegura que este artefacto, invento del italiano Enrico Dini, es de las creaciones modernas más prometedoras en la tecnología mundial. "Proyectos como el automóvil híbrido Urbee, diseñado y fabricado a partir de una impresora 3D, o el RepRap, una máquina que puede replicarse a sí misma, se convierten en punta de lanza de una tecnología que busca, en el corto plazo, desarrollar, además, tejidos humanos en materiales biosintéticos, autopartes y automóviles con formas más versátiles y seguras en materiales livianos y amigos del medio ambiente".
Un pequeño avión manejado a control remoto, una flauta, un violín Stradivarius, una pared, sillas, mesas, repuestos de carro y cosas tan pequeñas como anillos, son algunos de los objetos que ya han sido impresos en este tipo de aparato. Pero, ¿cómo funciona? Con un diseño en mente, plasmado en un programa digital, la impresora lo fragmenta en capas de menos de un milímetro y de abajo hacia arriba empieza su fabricación. Este proceso, dependiendo del producto, puede tardar horas y en ocasiones hasta días. Pero esto no es todo, porque los especialistas siguen trabajando con la convicción de producir objetos con movimiento u órganos cuya tinta sea hecha con proteínas y células.
Cristian Paul Peñaranda y Ronald Burgos, oriundos de Buga, Valle del Cauca, luego de investigar, encontraron que el código fuente y la documentación de la RepRap era libre y abierta, entonces, se propusieron traer esta tecnología al país con el objetivo de tener una pequeña fábrica de objetos, experimentar y aprender. "Si bien nadie está pensando en acabar con el modelo de producción actual, tener la posibilidad de replicar objetos en casa podría ser algo que generará todo un rompimiento, similar a lo que sucedió con la aparición del computador, 30 años atrás", afirma Cristian.
"Con la impresora 3D se reducen precios de fabricación y de complejidad"
Cristian Paul Peñaranda, estudiante de ingeniería electrónica, y Ronald Burgos, ingeniero de sistemas.
"En 2009 compramos un kit de impresora 3D a una empresa en Nueva York, llamada Makerbot, con la única intención inicial de imprimir las partes plásticas para crear la RepRap, ya que su precio era menor que pagar por la impresión de la partes en Colombia. Trajimos del exterior también los motores, y las partes mecánicas sí las compramos en Buga. El primer objeto que imprimimos fue un gancho de pared para ropa. El soporte de nuevos materiales y la constante experimentación acercan este tipo de impresoras a un ambiente más profesional".
NANOTECNOLOGÍA: ¿LA SEGUNDA REVOLUCIÓN INDUSTRIAL? No son pocos los que aseguran que la solución de buena parte de los retos que enfrentan la industria y la medicina hoy, está en el desarrollo de la nanotecnología, la técnica encargada del control y la manipulación de las moléculas y los átomos.
En 1965 hubo una primera voz científica que hizo referencia al término, la del Nobel de física Richard Feynman, quien afirmó: "Con el control de la disposición de las moléculas y átomos se pueden crear nuevos materiales con propiedades inimaginables". Sin embargo, fue hasta los años 80 que los avances experimentales fueron determinantes para la aparición de la Microscopía de Túnel de Barrido (STM) o de Fuerza Atómica (AFM), que hizo posible observar los materiales a escala atómica y, después, manipular átomos individuales.
El prefijo 'nano', que hace alusión a la milmillonésima parte de un metro, le abre las puertas a los materiales, dispositivos, instrumentales, entre otros, que se encuentran en la escala desde 5 a 50 o 100 átomos, llamándolos nanotecnología. Carlos Orlando Ladino, asesor de Colciencias, afirma que "cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas".
"Manipular el comportamiento de la naturaleza en aquellas escalas en donde tienen lugar todos los procesos responsables de la organización, evolución y comportamiento de lo que hace parte del mundo que conocemos ―dice Édgar González, físico, director del Centro de Ciencia y Tecnología Nanoescalar― ha sido uno de los principales desafíos de la ciencia y la tecnología".
Los avances han sido extraordinarios y esto ha llevado a continuar investigaciones con resultados cada vez más sorprendentes, ya que, como dice Ladino, "la nanotecnología constituye uno de los pilares científicos técnicos sobre los que la sociedades avanzadas van a construir su bienestar en el siglo XXI". Por eso, los países avanzados hoy no sólo invierten en infraestructuras y formación de los especialistas en empresas y centros de investigación, sino que además preparan a la sociedad para el impacto que representa este cambio.
La nanotecnología tiene un sinnúmero de aplicaciones, dentro de las que se pueden destacar: la fabricación de productos químicos y farmacéuticos, materiales más ligeros para la industria aeronáutica y automóvil, y empaques inteligentes para mantener frescos los alimentos.
"Manipular el comportamiento de la naturaleza en aquellas escalas, ha sido uno de los principales desafíos de la ciencia"
Édgar González, director del Centro de Ciencia y Tecnología Nanoescalar, e investigador en la producción de nuevos nanomateriales.
"Aunque se requieren severas políticas de regulación y seguridad para un uso responsable de productos nanoestructurados, que ya empiezan a aplicarse en el sector agrícola, alimentario, textil y automotriz, entre otros, no hay duda de que los beneficios y soluciones que aportarán, específicamente en el área de la salud, la energía y remediación ambiental, serán significativos".
LÁSER: EL NUEVO BISTURÍ Aunque no veamos sus rayos, este chorro de luz está en todas partes. Escoja cualquier objeto. Seguro que, al menos una vez, pasó por el láser.
Sí, es verdad: ya en 1916 Albert Einstein estableció los fundamentos para el desarrollo del láser y, tras la Segunda Guerra Mundial, Willis Eugene Lamb y R.C. Rutherford, comprobaron definitivamente las teorías que se habían gestado sobre él. Es más, también es cierto que muchos consideran a Arthur Leonard Schawlow y Charles Town como sus inventores, porque lo patentaron en la década de los 60. Pero aun con toda esa historia encima, es innegable que fue en los últimos 25 años que el uso del láser se masificó y tocó todos los ámbitos: desde el trabajo industrial hasta la medicina, pasando por el entretenimiento y la rumba. El láser, que antes era sólo manipulado por atemorizados científicos, ahora está en todas partes. Hasta en los juguetes de sus hijos.
Tal como lo anota Galo Tovar, asesor de desarrollo tecnológico e innovación de Colciencias, el origen de la palabra láser viene de la sigla en inglés Light Amplification by Stimulated Emission of Radiation (amplificación de luz por emisión estimulada de radiación). Se trata de un dispositivo óptico que tiene una fuente que genera un chorro de luz especial. Una luz que no se dispersa, es coherente y de un solo color.
Y después añade: "Hoy en día el láser es una herramienta fundamental en la investigación, la industria, las comunicaciones, la medicina, la impresión, la seguridad y el entretenimiento. En investigación, se utilizó un láser para medir la distancia de la Tierra a la Luna; para detectar movimientos de la corteza terrestre y la contaminación atmosférica. En la industria se usa como herramienta de corte de metales, plásticos, diamantes y confecciones; en carreteras y construcción de edificios para alinear las estructuras; en comunicaciones puede transportar 1.000 veces más canales de comunicación que el sistema microondas. En medicina, se ha utilizado para soldar la retina, cauterizar vasos sanguíneos (varices) y perforar el cráneo; en estética, para la depilación. En impresión para incrustar hologramas de seguridad en los billetes o boletas y en la fabricación de impresoras láser. En equipos de entretenimiento, para leer CD o DVD, y en el comercio, como lector de códigos de barras".
¡Qué tal! ¡Casi nada! Y según parece apenas estamos comenzando. El láser será un elemento clave en el desarrollo de nuevas tecnologías en los próximos años. Es más, hasta se le relaciona con la futura anestesia, la lucha contra la malaria y el encendimiento de bujías.
Sí, hace tiempo que el láser dejó de ser ese rayo de las espadas de La guerra de las galaxias. Ahora está en todas partes.
"Gracias al láser, quedé viendo más de lo que ve una persona normal"
Juan Pablo Rodríguez, médico. Gerente de la Fundación Oftalmológica Nacional.
"Me hicieron cirugía refractiva en ambos ojos porque no veía de lejos. Es un procedimiento en el que el láser hace una ablación (talle) en el interior de la córnea, que es el lente más potente que tiene el ojo. Fue una de las primeras ablaciones personalizadas (wave front) que se hicieron en Colombia. Con este procedimiento quedé viendo más de lo que normalmente ve una persona".
GENÉTICA: DEVELANDO LOS SECRETOS DE LA CIENCIA En este cuarto de siglo hemos conocido más sobre quiénes somos, para dónde vamos y cómo desaparecer las enfermedades que nos aquejan, de lo que lo habíamos hecho durante milenios. Pero todavía falta bastante.
En los últimos 25 años todo el mundo empezó a hablar de genética. ¿Por qué? "Comprendimos que el ADN puede aislarse, modificarse y transferirse entre organismos independientemente de su origen. Entonces tuvimos en nuestras manos una herramienta poderosa", dice Alejandro Chaparro, director del grupo de ingeniería genética de plantas, de la Universidad Nacional.
Camilo Ernesto López, biólogo e investigador de la Universidad Nacional, los avances más importantes en materia de genética de los últimos 25 años fueron muchísimos. Pero aquí van los más importantes:
-La incorporación de nucleótidos (los ladrillos que forman el ADN, la molécula de la vida) sintéticos, para de esta forma tener una molécula de ADN artificial, que porta la información de un organismo determinado.
-La secuenciación del genoma humano; es decir, la determinación completa de la disposición lineal y continua de nucleótidos que forman cada una de las veintitrés moléculas (cromosomas) presentes en los seres humanos.
-El descubrimiento de los micro-ARN ha sido uno de los grandes aportes en el conocimiento de la biología molecular y ha logrado aplicarse para desarrollar metodologías que permitan silenciar o apagar genes específicos. Las aplicaciones están aún en sus comienzos, pero tienen el potencial de constituirse en una de las mejores estrategias de terapia génica.
-La clonación de la oveja Dolly, que abrió las puertas a la posibilidad de clonar otros organismos y generó la discusión sobre la clonación de seres humanos.
-Las primeras plantas transgénicas. Aunque fueron desarrolladas por primera vez hacia finales de los 80, sin duda en los últimos años se ha progresado enormemente en este aspecto, logrando hacer plantas transgénicas de una gama amplia de especies y con transgenes diferentes.
-A finales de los 80 se desarrolló la técnica de amplificación in vitro de fragmentos de ADN, o más conocida como PCR. Permite producir miles de copias de un fragmento de ADN de manera rápida y muy simple. También ha permitido el desarrollo de muchos sistemas de detección y diagnóstico en enfermedades de animales y plantas.
¿Y a dónde nos llevará el desarrollo de la ingeniería genética? "El gran desafío es descifrar la función de cerca de los 28.000 genes que tenemos ―explica López―. Creo que seremos capaces de sintetizar genomas más complejos y podremos tener sistemas que nos permitan insertar genes dentro del genoma de las plantas. Apagaremos o prenderemos genes, lo que será una gran estrategia. Y tendremos avances importantes en la comprensión del funcionamiento de las células madre. Suena muy futurista, pero no es algo lejano: ¡en cuestión de diez o quince años se dará!".
"La genética nos dice a dónde vamos"
Paul Chavarriaga. Biólogo, especializado en genética. Investigador del Centro Internacional de Agricultura Tropical (CIAT).
"Uno de los descubrimientos que mayor impacto ha tenido, y seguirá teniendo, es el conocimiento de las secuencias de los genes que están implicados en un sinnúmero de actividades a nivel de células y organismos. Hoy se conoce como el código genético, o la secuencia del genoma... Bueno, creo que el mayor beneficio que la genética me ha proporcionado es que me proporciona otra perspectiva de la vida, de lo que somos, de hacia dónde vamos...".
SOFTWARE: EL ALMA DEL COMPUTADOR Antes de su existencia, acercarse a los sistemas era algo complejo. Esta forma de lenguaje se ha sofisticado mucho en estos 25 años, pero lo que viene es de no creer.
El Instituto de Ingenierías Eléctricas y Electrónicas define la palabra software así: "Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación". ¿Una definición muy fría, incomprensible? Entonces digamos que el software es el alma del ordenador; que sin él, el aparato sería poco más que una caja, un elemento decorativo. Que en todo ese contenido intangible que se encierra en esa palabra está la vida ―si es que podemos hablar de vida― que pueda haber en un ordenador.
¿Quiere más? Sin él no podríamos hablar ni de Word ni de Excel ni de Internet, así que nada de trabajos universitarios hechos frente al computador, ni de muy ordenados presupuestos empresariales, ni de búsquedas en Google o relaciones a través de Facebook. Nada. Uy, ¡qué sería de nosotros sin software!
La idea de software libre (aquel que respeta la libertad de los usuarios sobre el producto adquirido) apareció en 1985, cuando Richard Stallman hizo el registro público. Y fue en los años siguientes que invadió al mundo y se hizo más que necesario; de ahí que no dudemos en incluirlo en la lista de las 25 innovaciones más importantes de los últimos 25 años.
"La industria del software es la que mayores innovaciones aporta en términos de tecnología a la sociedad ―anota Edison Pérez, del Programa Nacional de Electrónica, Telecomunicaciones e Informática de Colciencias―. Desde las primeras aplicaciones en la industria militar hasta la masificación de Internet y las redes sociales, pasando por los desarrollos específicos en robótica e inteligencia artificial hasta la nanorobótica, son el software y los sistemas operativos, los idiomas con los cuales la tecnología actual se interrelaciona entre sí misma y con el hombre".
Según el portal neoteo.com, los avances que vienen para el software son de no creer. Basta con leer lo siguiente: "Ya son capaces de determinar el estado de ánimo de una persona simplemente 'viendo' una imagen de su rostro, o predecir el comportamiento de los mercados bursátiles. Y se trata de una disciplina en la que recién estamos comenzando a trabajar seriamente (...) De la mano de un hardware compuesto por chips cuánticos masivamente paralelos (con cientos de núcleos corriendo a la par), el software será incluso superior al más inteligente de los humanos". ¡Por Dios!
"El software cambió el mundo"
Gerente de comunicaciones externas de SAP para la región de habla hispana de Sudamérica.
"El software cambió nuestra forma de trabajar y cambió el mundo. Dio capacidad de análisis, facilitó las tareas, dio inteligencia a los datos y en los últimos años nos permitió acceder a la información y sus análisis desde cualquier lugar y momento, a través de dispositivos móviles. La utilización de ciertas herramientas facilitó mi tarea cotidiana. En la actualidad, desde un dispositivo móvil puedo aprobar diferentes tipos de órdenes camino a la oficina, ahorrar tiempo y aprovechar tiempos muertos".
FIBRA ÓPTICA: TODA LA INFORMACIÓN EN UN HILO La velocidad con la que los mensajes viajan a través de esa fibra, tan delgada como un cabello, sigue siendo impresionante. Una mirada al hilo que conectó al mundo.
¿Cuánto demora en llegar una película de alta calidad de un lugar del mundo a otro, a través de fibra óptica, si se usa completo el ancho de banda? Una centésima de segundo. Rápido, ¿no? Es que este medio de transmisión alcanza velocidades de alrededor de 15 terabits sobre segundo, es decir: puede enviar una cadena de hasta 15 billones de bits por segundo.
¿Demasiada información? Vamos con calma. "La fibra óptica es un medio de transmisión de señales electromagnéticas constituido por un hilo flexible muy fino que puede ser de vidrio o algún tipo de plástico, con un ancho cercano al de un cabello humano, y por el que la señal viaja desde un extremo al otro", dice Diego Leonardo Otálora, físico de la Universidad Nacional y asesor de Colciencias, cuando se le pide una definición. Y después, más explicativo, añade: "En varias aplicaciones esta señal tiene una longitud de onda dentro del espectro visible, por lo cual puede ser considerada luz. La fibra generalmente está constituida por un hilo central rodeado de un revestimiento de material de menor índice de refracción, es decir con menor capacidad para curvar la luz. Debido al fenómeno físico conocido como reflexión total interna, la luz queda atrapada en el interior del hilo, de forma que éste actúa como una guía que determina la dirección de propagación de la luz".
La primera línea transatlántica de fibra óptica ―la TAT-8― fue instalada en 1988. Desde entonces, se ha usado la fibra en multitudes de enlaces tanto transoceánicos como entre ciudades, y, por supuesto, ha ido creciendo el uso desde las redes troncales de las operadoras hasta los usuarios finales.
El de la fibra óptica es hoy uno de los negocios más productivos y competidos del mundo, pues empieza a desplazar a los sistemas satelitales e inalámbricos, ya que en muchas oportunidades resulta más barato. De ahí que buena parte de la información a la que hoy tenemos accesos se transporte por medio de la dichosa fibra: nuestro acceso a Internet, las películas que vemos en nuestros televisores y las llamadas que hacemos, muy probablemente viajen por este medio.
Pero hay más: también se le usa como sensor (para medir tensión, temperatura y presión); como forma de iluminación; como guía de onda en la medicina y la industria; como componente del hormigón traslúcido y hasta en el desarrollo de coberturas más resistentes. ¡Vaya fibra!
"¡Actualmente la fibra óptica es vital!"
Pedro Ignacio Torres. Director del Grupo de Fotónica y Optoelectrónica de la Universidad Nacional.
"Trabajo en el desarrollo de sensores de fibra óptica de interés para varias industrias: para la medición de presión y temperatura en fondos de pozo de petróleo; en aplicaciones para el monitoreo de estructuras civiles; en la medición de la calidad de biocombustibles; en el desarrollo de un prototipo para la inspección interior de tuberías; en tecnologías fotónicas para aplicaciones en biomedicina. Con el laboratorio en el que trabajo, nos ocupamos también de un dispositivo y un método para desarrollar láseres pulsados completamente a fibra óptica, que muy pronto esperamos poder escalar para incursionar en láseres de potencia con miras a aplicaciones industriales... ¡Actualmente, la fibra óptica es vital!".
LIBRO ELECTRÓNICO: DEL PAPEL A LA PANTALLA Entre las opiniones que auguran el fin del libro impreso y las que afirman su convivencia con los formatos electrónicos, sólo una cosa parece ser cierta: el libro electrónico no deja a nadie indiferente y tiene a todos especulando sobre su alcance.
Fotografía: Elizabeth Jiménez
Cuando imprimió la Biblia en su imprenta de tipos móviles en la década de 1450, Johannes Gutenberg estaba dando inicio a una revolución en el acceso a la información que ha ayudado a definir el mundo desde entonces. Ahora, con la llegada del libro electrónico en 1971 y de los dispositivos de lectura digital (e-readers) en la década de los 90, se habla también de una revolución del libro electrónico que apenas está empezando.
Un libro electrónico es un texto en formato digital, independientemente de su soporte, que puede ser Internet, dispositivos móviles o lectores de libros electrónicos, como el famoso Kindle, desarrollado por Amazon (esta librería anunció a principios del 2011 que sus ventas de libros digitales ya superan las ventas de aquellos en papel), o el Nook de la Barnes & Noble.
Edison Pérez, asesor del Programa Nacional de Electrónica, Telecomunicaciones e Informática de Colciencias, asegura: "El libro electrónico es una de las invenciones más sobresalientes de los últimos años, con un impacto radical en los métodos de lectura y en la conservación del medio ambiente al eliminar el papel impreso y los amplios espacios para contener la información, ya que en un pequeño dispositivo se pueden almacenar contenidos equivalentes a una biblioteca; asimismo representa un cambio radical en el esquema de mercadeo de literatura, pues se pasa del concepto de librería tradicional al concepto de librería virtual a través de Internet."
Aunque muchos dispositivos electrónicos cuentan con técnicas de simulación del papel, existen formatos que se alejan de la concepción tradicional del libro impreso e invitan a explorar otros recursos. "Hay casos en los que se puede interactuar directamente con la máquina; por ejemplo, en temas de geografía se pueden explorar relieves o ver mapas en 360 grados", asegura Pérez, quien señala, además, que la información va a seguir vertiéndose hacia los medios digitales hasta un probable futuro en el que la transmisión de datos se haga por ondas cerebrales.
"El libro electrónico sirve para trascender fronteras"
Javier Correa Correa, autor de dos libros electrónicos.
"El formato electrónico hace que la distribución de la obra no se restrinja a un área geográfica y un periodo determinados, sino que se amplíe a todo el espectro de lectores de la lengua en la que la obra haya sido escrita, lo cual permite, a su vez, una difusión de los valores culturales del país de donde es oriundo el autor. En este contexto, una editorial como Elibros, que publicó en formato digital mis novelas La mujer de los condenados y Si las paredes hablaran, sirve para trascender fronteras, acceder a lectores que no serían fácilmente alcanzables con libros impresos, contribuir al equilibrio ecológico (no hay gasto de papel ni de tinta) y ajustarse a las posibilidades que brindan las nuevas tecnologías de la información".
BIOLOGÍA COMPUTACIONAL: LA INFORMÁTICA DE LOS SERES VIVOS De la combinación de biotecnología y computación surge la biología computacional, un campo de estudio que aplica los sistemas de la informática a la medicina, para una mejor comprensión de los seres vivos.
Fotografía: Fredy Amariles
En 1990, cuando se dio inicio al Proyecto Genoma Humano, que buscaba hacer un mapa de los más de veinte mil genes de nuestra especie, se estimó que la labor sería terminada en 2005, pero dos años antes de la fecha de entrega los investigadores sorprendieron al mundo con el anuncio de que la tarea ya estaba completa. El uso de computadores permitió realizar este trabajo de investigación, en tanto los avances tecnológicos contribuyeron a su vez a que la labor se pudiera completar en un menor tiempo del esperado.
El uso de computadores en este proyecto es sólo un ejemplo de las aplicaciones de la biología computacional, "un campo de estudio altamente interdisciplinario, que reúne conocimientos en matemáticas, biología, bioquímica, genética, estadística, química, biofísica, ecología e ingeniería computacional", como indica Mauricio Rodríguez, gestor del Programa Nacional de Biotecnología. Se trata de un campo en el que, en pocas palabras, se recurre a la informática para resolver problemas de la biología.
Aunque la informática es una disciplina mucho más joven que la biología, la combinación de las dos ya ha hecho una contribución invaluable al conocimiento científico y todo apunta a que seguirán mezclándose en el futuro. Juan Fernando Alzate, del grupo de estudio del genoma de la bacteria que causa la tuberculosis, afirma que "la biología y la medicina dependerán más de la computación hasta hacerse inseparables", mientras Mauricio Rodríguez da una pista sobre sus posibles aplicaciones: "Eventualmente, se prevé que se logrará, junto con la biología sintética, la posibilidad de rediseñar genéticamente cualquier organismo vivo".
"En cuestión de una semana podemos tener información detallada de cualquier bacteria patógena que pueda surgir".
Juan Fernando Alzate, director del Centro Nacional de Secuenciación Genómica CNSG.
"Para identificar la secuencia completa del genoma de la bacteria que produce la tuberculosis ―trabajo que realizamos conjuntamente con el grupo GICIG de la Universidad de Antioquia y el Consorcio Colombiano para Investigación en Tuberculosis― utilizamos tecnología de punta de secuenciamiento genómico disponible en el CNSG en la Universidad de Antioquia. Rompemos en cientos de miles de trozos el material genético de la bacteria, leemos la información de cada uno de esos trozos y luego volvemos a armar un rompecabezas de 350.000 piezas aproximadamente. Este tipo de investigación ofrece datos básicos del material genético del patógeno que produce la tuberculosis en Colombia y permite que los investigadores puedan mejorar los métodos diagnósticos actuales o diseñar pruebas de laboratorio que permitan en un futuro cercano ver más claramente los patrones de su transmisión en nuestras ciudades".
TRANSPLANTES: REGALOS DE VIDA Los trasplantes de órganos y tejidos son hoy procedimientos frecuentes, que han permitido mejorar la vida de personas con enfermedades crónicas específicas.
Fotografía: Fredy Amariles
La posibilidad de los implantes se hizo realidad con el oftalmólogo Eduard Zirm, quien en 1905 realizó el primer trasplante exitoso (de córnea), y con el francés Alexis Carrel, que estuvo al frente de trasplantes de arterias y venas y en otros más experimentales, como de riñón, corazón y bazo, en perros, en 1912. Sin embargo, varios inconvenientes surgieron a partir de esta fecha como el descubrimiento de la incompatibilidad o rechazo de los órganos.
Pese a que su implementación se inició en esa época, Pablo Javier Patiño, director de fomento de investigación en Colciencias, asegura que en los años 70 empezó la real revolución de este procedimiento, con la llegada de fármacos inmunosupresores para evitar los rechazos. Gracias a ello, los trasplantes se hicieron cada vez más comunes, especialmente en los años 80, en Europa, Norteamérica y Latinoamérica.
De hecho, por esos días se dio a conocer la necesidad de incrementar el insumo básico de los trasplantes: los órganos.
"En el futuro la esperanza terapéutica principal que se tiene para trasplantes es la utilización de células madre ―dice Luis Fernando Palacio Tamayo, coordinador de la red de trasplantes regional Dos―, las cuales se puedan emplear para terapias celulares y trasplantes de tejidos, sin los problemas actuales ligados a los aloinjertos, escasez de donantes histocompatibles y necesidad de administrar drogas inmunosupresoras con sus efectos secundarios".
Actualmente se puede hablar de trasplantes de hígado, médula ósea, córnea, pulmón, intestino, páncreas, piel, timo, hueso e incluso partes del cuerpo, tales como miembros y cara. Patiño asegura que gracias a los desarrollos recientes en la investigación en las células madre y en la ingeniería de tejidos, se espera que en pocos años sea posible reemplazar cualquier órgano o tejido de nuestro organismo.
"El deterioro de mi salud era cada vez más acelerado, pero con el trasplante los cambios han sido estupendos"
Martha Cecilia Vargas López, ingeniera administradora. Hace unos meses le hicieron un trasplante de corazón.
"Padecía de insuficiencia cardíaca de origen isquémico. Cuando supe que había un posible donante, sentí un tremendo impacto y tuve mucho miedo, pero hoy puedo decir que volví a nacer. Mi experiencia me da la oportunidad de comparar la situación actual de la medicina con la de épocas pasadas. Mi padre falleció a causa de un infarto hace 40 años, a la edad de 55. Alcanzó a estar hospitalizado dos días, pero en esa época no existían los recursos con que se cuenta actualmente y que posibilitan a los enfermos no sólo de corazón sino de otra serie de enfermedades, tener, a través de diferentes procedimientos, una oportunidad de vida".
SANGRE ARTIFICIAL: DONANTE UNIVERSALCon su capacidad de transportar oxígeno y la ausencia de patógenos, la sangre artificial, comercializada desde 1989, se perfila como respuesta a la escasez de sangre alrededor del mundo.
Según estimaciones de la Organización Mundial de la Salud, en un país como Colombia el índice de donación debe ser de 40 por cada mil habitantes para que haya suficiente sangre para atender a todos los pacientes. Pero actualmente sólo once de cada mil colombianos son donantes. La sangre artificial puede ser la solución a este problema. En 1989, en Estados Unidos, se comercializó el primer sustituto de la sangre con aprobación. Pablo Patiño, director de Fomento a la Investigación de Colciencias, describe la sangre artificial como "un sustituto basado en una sustancia que permite cumplir algunas de las funciones de la sangre, en particular el transporte de oxígeno, de forma que se pueda utilizar como alternativa a las transfusiones sanguíneas. Existen sustitutos para el transporte de oxígeno basados en hemoglobina o en perfluorocarbono (PFC)".
Las ventajas de la sangre artificial basada en PFC radican en que hace que el oxígeno llegue a tejidos dañados adonde no pueden acceder los glóbulos rojos. Patiño lo explica así: "Aunque este tipo de sangre artificial no se mezcla con la sangre, se pueden generar emulsiones al dispersarla en agua, de manera que se formen partículas mucho más pequeñas que los glóbulos rojos. Esta característica permite que el PFC atraviese por sitios donde no pueden llegar los glóbulos rojos. La otra característica es que la mezcla líquida puede transportar tan bien el oxígeno, que los seres humanos pueden sobrevivir respirando una suspensión líquida de PFC".
Por su parte, la sangre artificial basada en hemoglobina tiene menor capacidad de transporte de oxígeno dado que se obtiene tras varios tratamientos físicoquímicos para evitar la toxicidad que tiene en el riñón si se utiliza en su estado puro. Ambas, sin embargo, podrían reducir los problemas de salud asociados a la escasez de sangre en todo el mundo, con la ventaja adicional de que carecen de las enfermedades infecciosas que se pueden transmitir si las muestras de los donantes no son analizadas.
Recuadro
"Se resolverán varios de los problemas de disponibilidad y acceso que hoy se presentan con la sangre donada"
Guillermo Orjuela, coordinador de docencia e investigación del Banco Nacional de Sangre de la Cruz Roja.
"Algunas ventajas de la sangre artificial son que no tiene riesgos de transmisión de enfermedades infecciosas; no necesita pruebas de compatibilidad, lo que resulta útil especialmente en urgencias; puede ser almacenada por mucho más tiempo, de 1 a 3 años, en comparación con los 45 días de vigencia de la sangre donada actualmente, y puede mantenerse almacenada a temperatura ambiente. En contraste, la sangre donada debe ser almacenada en refrigerador a 4° C. Cuando los obstáculos que persisten con los sustitutos de la sangre sean resueltos, estos sin duda resolverán varios de los problemas de disponibilidad y acceso que hoy se presentan con la sangre donada. Serán también una solución potencial para los pacientes que requieran ser transfundidos, pero no acepten la sangre donada".
VIAGRA: EL FIN DE LAS PREOCUPACIONES MASCULINAS En 1998, luego de años de estudio, investigadores ingleses encontraron la fórmula que acabó con una de las mayores preocupaciones del hombre: la disfunción eréctil.
Peter Dunn y Albert Wood, quienes hacían parte de este grupo, no imaginaron que las pruebas, que inicialmente buscaban respuestas efectivas para la hipertensión arterial y la angina de pecho, arrojarían resultados relacionados con la erección del pene. Conociendo este efecto, el producto se patentó en 1996. Luego de ser aprobado por la FDA (la agencia estadounidense de drogas y alimentos), no quedaba nada más que sacarle provecho lanzándolo al mercado con el nombre de Viagra, en 1998. Hay quienes aseguran que su nombre se deriva de la palabra viāghra, que significa tigre en idioma sánscrito.
Entre 1999 y 2001, las ventas de la píldora superaron los mil millones de dólares. No por nada, el reconocido futbolista Pelé, salió en los medios recomendando la píldora azul.
"De inmediato se convirtió no sólo en un éxito comercial sino que además revolucionó el tratamiento de las dificultades asociadas con la impotencia masculina, por tanto ha sido un éxito innovador" dice Pablo Javier Patiño, director de fomento de investigación en Colciencias. Patiño además asegura que a partir de su descubrimiento, desarrollo e ingreso al mercado, se ha generado una línea de investigación y progreso que ha conducido a la aparición de otros fármacos para el manejo de la disfunción eréctil.
Pese al lanzamiento de píldoras con diferentes nombres, en 2000 el Viagra era el protagonista en el mercado de píldoras prescriptivas para la disfunción sexual con un 92%. Pero su éxito produjo que otras entidades copiaran y falsificaran el medicamento, lo cual trajo una caída en sus ventas durante 2007.
En ocasiones el Viagra ha sido catalogado como 'la droga de la felicidad' ya que, como dice Patiño, "promueve la erección del pene debido a que permite que el cGMP (guanosín monofosfato cíclico) produzca una vasodilatación más sostenida y por tanto, mayor flujo de sangre a través de las arterias que se encuentran en los cuerpos cavernosos en el interior del pene".
"Conozco algunas amistades de mi generación que toman Viagra pero prefieren no hablar del tema por temor a ser cuestionados en su virilidad"
Armando Plata, locutor.
"Pienso que Pfizer ha hecho un magnífico trabajo de publicidad y mercadeo. Alguna vez pensé en tomar Viagra, pero soy un seguidor de los productos naturales. Tomo Maca, un medicamento alternativo que me recomendó un amigo médico que se pasó de la medicina tradicional a la natural. Esta hierba, original de la zona andina de Perú y Bolivia, cumple con la misma función del Viagra".
TELOMERASA: ¿EL ELIXIR DE LA ETERNA JUVENTUD? Esta enzima, que puede hacer que las células vivan más, tal vez nos asegure una eterna juventud. Además, es útil en la lucha contra el cáncer, las enfermedades coronarias y la diabetes.
Fotografía: Roberto Africano
"En 1930 se conocía que los cromosomas o cuerpos de ADN estaban protegidos por algún mecanismo, pero sólo hasta mediados de los 80 se descubrió que la enzima encargada de esa protección era la telomerasa ― asegura Mauricio Rodríguez, gerente del programa nacional de biotecnología de Colciencias―. Fueron Jack Szostak (Universidad de Harvard), Carol Greider (Universidad Johns Hopkins) y Elizabeth Blackburn (Universidad de California) quienes lograron tan importante hallazgo, lo que los hizo merecedores del Premio Nobel en 2009.
En 1990, por primera vez se propuso la llamada 'hipótesis telomérica', que dice que las células normales tienen inactivo el gen de la telomerasa, que se traduce en la muerte celular, mientras que células que tienen activo el gen pueden mantenerlo de manera indefinida, lo que significa una multiplicación ilimitada.
La doctora Mónica Molano, coordinadora del grupo de investigación en biología del cáncer del Instituto Nacional de Cancerología, asegura que en estudios moleculares en los que se ha detectado la actividad de la telomerasa mediante el desarrollo de un ensayo denominado TRAP (repetición telomérica del protocolo de amplificación), se ha encontrado asociación entre niveles altos de actividad de esta enzima y el desarrollo de diferentes tipos de cáncer. "Entre los cánceres que se han estudiado se cuentan los de pulmón, páncreas, hepatocelular, próstata, algunos de piel y ciertos tumores gastrointestinales, por lo cual se ha dicho que los niveles de actividad de la telomerasa podrían ser de utilidad como marcadores de progresión tumoral".
A manera de conclusión, Molano dice que ha existido un gran esfuerzo por encontrar marcadores moleculares que puedan predecir qué pacientes van o no a desarrollar cáncer.
"La enzima de la telomerasa está relacionada con el alargamiento de la vida de las células"
Mónica Molano Luque, coordinadora del grupo de investigación en biología del cáncer del Instituto Nacional de Cancerología.
"El descubrimiento de la telomerasa da esperanzas para encontrar soluciones que lleven a disminuir las tasas de incidencias de cáncer en el mundo, así como en el tratamiento de enfermedades asociadas con el envejecimiento celular, en trasplantes y en la erradicación de las infecciones fúngicas (hongos) que tienen lugar en pacientes inmunodeprimidos. Investigaciones y estudios clínicos que contribuyan a resolver estos problemas beneficiarán a la población afectada y brindarán estrategias para desarrollar programas de prevención más eficientes".
CAMBIO CLIMÁTICO: LA TEMPERATURA SE VOLVIÓ LOCA En los últimos 25 años caímos en cuenta de que el mundo comenzaba a calentarse y que las tragedias causadas por fenómenos meteorológicos se disparaban. La certeza del cambio climático y el calentamiento global es uno de los más grandes ―y tristes― descubrimientos de los últimos tiempos.
Las noticias resultan abrumadoras: huracanes, inundaciones, deshielos, aumento de la temperatura y una lista inagotable de evidencias de que algo está pasando con la naturaleza. En efecto, aunque todas estas situaciones siempre han existido y el mundo siempre ha presentado variaciones climáticas, el mayor ritmo al que se presentan actualmente estos fenómenos es una consecuencia de la contaminación producida por el ser humano. María Cristina Durán, coordinadora del Programa Nacional de Medio Ambiente y Hábitat de Colciencias, explica que el cambio climático "en buena medida es consecuencia de la emisión de gases provenientes de la industrialización y de otras prácticas derivadas de las actividades humanas, como los cambios en el uso del suelo, el consumo energético y la deforestación".
El Panel Intergubernamental sobre Cambio Climático, creado en 1988, ha investigado las causas y las consecuencias de este fenómeno para crear consenso sobre la necesidad de generar soluciones que remedien sus consecuencias, pues, como advierte Durán, "los efectos del cambio climático están estrechamente relacionados entre sí y tienen que ver no sólo con las alteraciones climatológicas extremas sino también con la pérdida de biodiversidad y las alteraciones en los ecosistemas, y por ende, con su capacidad de generación de servicios ecosistémicos".
La necesidad de crear políticas y acciones orientadas a atenuar las consecuencias del cambio climático es inmediata. "Las acciones de contaminación y los daños ocasionados por la acción humana sobre la naturaleza ocurren en lapsos muy breves, pero la recuperación de los mismos puede conllevar largos períodos de tiempo y dispendiosos procesos", recuerda María Cristina Durán, poniendo en evidencia la importancia de actuar cuanto antes para detener estos daños.
"El retraso en la búsqueda de un acuerdo mundial es un crimen contra el planeta"
German I. Andrade, profesor de la Universidad de los Andes. Miembro del Consejo Científico del Instituto Alexander von Humboldt.
"Todo indica que las condiciones en la atmósfera están dadas para que el cambio sea irreversible. Podemos variar la magnitud y velocidad con que se manifiesta. La diferencia entre tener un acuerdo mundial y no tenerlo es enorme. La dilación es un crimen contra el planeta. Debemos mitigar las causas, cambiando las fuentes de energía, deteniendo la deforestación y restaurando millones de hectáreas degradadas. Y es urgente adaptarnos al cambio inevitable. Muy importante en ese sentido es no seguir 'construyendo' nuestra propia vulnerabilidad en el territorio".
BIOCOMBUSTIBLE: EL NUEVO PETRÓLEO El efecto invernadero y la cada vez menor reserva petrolera, llevaron al mundo a buscar nuevos combustibles. En los últimos 25 años, la respuesta fue hallada en la materia vegetal.
Es verdad: los combustibles producidos a través de procesos industriales que transforman la energía química almacenada en materias vegetales, fueron originados casi en el mismo momento que los combustibles de fósil y los motores de combustión.
Sin embargo, la aplicación de estos como solución para la baja disponibilidad de los derivados del petróleo, el alza de los precios y la alta contaminación, se inició finalizando los años 80.
"De manera paradójica ―dice Mauricio Rodríguez, gerente del programa nacional de biotecnología de Colciencias― la dependencia de los combustibles fósiles, aunada a los impactos ambientales de su utilización y la notable disminución de las reservas de petróleo en el ámbito mundial, ha originado en la actualidad un interés por encontrar alternativas que permitan disminuir el consumo de este tipo de combustibles. En este marco, los biocombustibles son una opción a la que varios países han acudido en búsqueda de tener una canasta energética más diversificada".
Y es que los beneficios del surgimiento de los biocombustibles han sido numerosos. Algunos de ellos son: la contribución a la disminución de los gases de efecto invernadero, el desarrollo del sector agrícola y el avance tecnológico en cuanto a motores capaces de manejar diferentes combustibles.
Materias vegetales como la caña de azúcar, el maíz, la remolacha azucarera, la celulosa, la yuca, la palma de aceite, el girasol, el algodón y la jatropha, entre otras son algunos de los recursos utilizados para este fin.
Rodríguez asegura que el desarrollo de estos nuevos biocombustibles demandará investigación y desarrollo en áreas como: biociencias avanzadas (genómica, biología molecular, y genética) para desarrollar alternativas que conviertan biomasa en lípidos, alcoholes, e hidrocarburos líquidos que se integren fácilmente a la infraestructura de transporte; tecnologías para la producción de combustibles a partir de materias primas renovables como las algas; y tecnologías para la producción de biomasa con rendimientos sostenibles que no compitan con alimentos.
"Nuestro país podría convertirse en un importante exportador de biocombustibles"
Jorge Bendek, presidente ejecutivo de la Federación Nacional de Biocombustibles de Colombia.
"Es una realidad que las reservas de petróleo del mundo van en declinación. Por cada cinco barriles que se consumen, solamente un barril se descubre. En Colombia, se ha fijado una meta de reemplazar el 20% de la gasolina y el 20% del ACPM o diesel petrolero, en el año 2020. Los Estados Unidos alcanzarán esta meta en 2022. Si Colombia, para ese año, ha sembrado tres millones de hectáreas de palma de aceite y 450.000 de caña de azúcar, utilizaría el 9% de las áreas dedicadas a la ganadería extensiva, que la dirección mundial de la FAO ha denominado de 'pasturas degradadas'. Así, nuestro país podría convertirse en un importante exportador de biocombustibles".
CIRUGÍA ROBÓTICA: CUANDO EL DOCTOR ES UN ROBOTQue las máquinas lleguen a reemplazar al ser humano ya no es una ilusión. Un robot lleva años haciendo intervenciones quirúrgicas.
El primer robot que realizó un procedimiento quirúrgico fue el PUMA 560, que, guiado por un tomógrafo computarizado, fue usado para obtener una biopsia cerebral. Más adelante, en 1988, el sistema Probot realizó una cirugía de próstata en el Colegio Imperial de Londres.
El más reciente, Da Vinci, que actualmente se encuentra en más de 1.200 partes del mundo, es también utilizado por la Clínica de Marly en Bogotá. "Este sistema fue introducido por la compañía Intuitive Surgical con el fin de superar las limitaciones de las cirugías mínimamente invasivas, y para aumentar la capacidad de los cirujanos al momento de realizar cirugías abiertas", afirma Pablo J. Patiño, director de fomento de investigación de Colciencias. Esta máquina consta de tres partes: una consola donde el cirujano realiza los movimientos; el carro robótico del paciente, conformado por cuatro brazos (un endoscopio y tres para los instrumentos); y el carro de procesamiento de imágenes.
"Actualmente ―continúa Patiño― la cirugía asistida por este robot se puede realizar mediante un computador que controla todos sus movimientos, o por medio de un manipulador remoto que transmite los movimientos del cirujano, normalmente asociados con la cirugía, a los brazos robóticos".
Da Vinci ha traído numerosas beneficios para los cirujanos y pacientes, como imágenes en tiempo real, precisión en el procedimiento, recuperación posquirúrgica más rápida, menos dolor y sangrado, menor riesgo de infección y cicatrices más pequeñas, así como reducción de los movimientos del cirujano que no tiene muy buen pulso.
Andrea Sánchez Higuera se sometió hace poco a una miomectomía realizada por Da Vinci. Ella dice: "Sentí incertidumbre y nervios, ya que no tenía conocimientos claros sobre el uso de robots en la medicina ni de su implementación en Colombia. Sin embargo, basada en los resultados y el bienestar que obtuve luego de la cirugía, considero que la robótica debería efectuarse en la mayoría de los procedimientos. Las ventajas que ofrece esta clase de avance para el cuerpo médico y para los pacientes son múltiples y deben estar al servicio de todos".
"La cirugía robótica se encuentra en plena expansión"
Lulibey Rojas, enfermera jefe de Cirurobótica, Instituto de Cirugía Robótica.
"Actualmente se maneja el programa de cirugía robótica en las especialidades de urología y ginecología. Sin embargo, ya se inició el entrenamiento de los cirujanos en la especialidad de cirugía general para realizar bypass gástrico. En la actualidad se busca realizar procedimientos mínimamente invasivos, poco traumático para el paciente. Por tal motivo, se debe pensar en desarrollar instrumentos cada vez más pequeños, adaptados al robot para lograr su uso en especialidades que en la actualidad no se manejan, como la ortopedia y neurocirugía".
REGENERACIÓN DE LOS HUESOS: ¿HUESO PERDIDO? ¡HUESO NUEVO!Como una solución a la osteoporosis y los problemas dentales, los especialistas llevan dos décadas valiéndose de la regeneración ósea. Se cree que en poco tiempo cualquier hueso perdido podrá ser remplazado con otro igual, generado por el cuerpo.
Los daños en los huesos han contado con respuestas médicas como los insertos óseos, que pueden ser generados a partir de huesos del mismo paciente, provenir de donaciones o constituirse a partir de materiales sintéticos. "La necesidad de materiales que puedan actuar como sustitutos del injerto óseo o del cartílago articular ha propiciado el desarrollo de una nueva disciplina: la ingeniería tisular", comenta el director de fomento a la investigación de Colciencias, Pablo Patiño, sobre una ciencia surgida en los años 80. Y la describe "como una solución innovadora a la escasez de órganos disponibles para trasplantes".
Una de las innovaciones de la ingeniería tisular para el tratamiento de problemas óseos es la regeneración. El periodoncista Juan Carlos Navarro explica de qué se trata: "Existe una diferencia entre reparación y regeneración. La reparación es un mecanismo de cicatrización con sustitución de tejidos de otra naturaleza diferente al tejido involucrado; la regeneración es la reformación de tejido de la misma característica del preexistente. En esencia el objetivo ideal de cualquier proceso de cicatrización es el de regresar el mismo tejido que existía antes de la pérdida".
La investigación de la ingeniería tisular se orienta hacia los procesos regenerativos con células madre, y muchos profesionales no dudan en afirmar que el futuro de su profesión está en la regeneración ósea. Este es el caso de la odontología, donde actualmente existen procedimientos de implantes con regeneración, mínimamente invasivos. "El futuro de la regeneración ósea está en los procedimientos que incorporan adicionalmente factores de crecimiento, los cuales se perfilan como la nueva generación de sustancias que promueven cicatrización ósea acelerada utilizando moduladores bioquímicos y alejándonos de los puramente mecánicos utilizados hasta el momento", añade Navarro.
"En la odontología, el sector de la regeneración ósea está en acelerado crecimiento"
Juan Carlos Navarro, periodoncista.
"Más del 60% de los procedimientos que precisan implantes requiere adicionalmente procedimientos de regeneración ósea. Este sector de la odontología está en acelerado crecimiento. La regeneración reconstruye lo que se perdió. Sin la regeneración el odontólogo se ve obligado a reconstruir protésicamente lo que no pudo biológicamente. Es un concepto técnicamente sensible que involucra un mayor nivel de capacitación y entrenamiento de todo el equipo de trabajo".
TRATAMIENTO CONTRA EL VIH: AVANCES INMENSOS El sida aún no ha sido vencido del todo, pero desde 1987 se desarrollan en el mundo antirretrovirales que le han quitado el carácter de padecimiento mortal para convertirlo en una enfermedad crónica controlable.
Fue exactamente hace 30 años, en 1981, cuando por primera vez se describió la enfermedad que un año más tarde recibió el nombre de síndrome de inmunodeficiencia adquirida (sida). "Después de definir que la infección por VIH era responsable del sida, hemos presenciado un mejoramiento continuo de los métodos para hacer el diagnóstico de la enfermedad y una búsqueda intensa de medicamentos para inhibir la multiplicación del VIH en el organismo y frenar el proceso de destrucción del sistema de defensas, conocido como sistema inmune", dicen Pablo J. Patiño, de Colciencias, y Carlos Julio Montoya, de la Universidad de Antioquia.
De acuerdo con Patiño y Montoya, la investigación ha dado buenos resultados, y ya desde 1987 se empezaron a utilizar antirretrovirales que bloquean la replicación del virus: "Desde entonces, y gracias a las investigaciones que permitieron conocer el ciclo de vida del virus y sus enzimas críticas, se han ido descubriendo nuevos medicamentos con capacidad de bloquear dichas enzimas e impedir el ingreso del virus a las células, inhibiendo su infección y replicación."
Gracias a la terapia antirretroviral de gran actividad (TARGA), que combina la acción de varios antirretrovirales para controlar con mayor eficacia la reproducción del VIH, la infección es ahora considerada una enfermedad crónica controlable y las enfermedades asociadas al sida se han reducido en los lugares donde el tratamiento está disponible. La investigación ahora está orientada a perfeccionar "los medicamentos y los esquemas de la TARGA, de manera que se garantice una mejor tolerancia, menor toxicidad y menor posibilidad de que el VIH se vuelva resistente a ellos. Además, se busca desarrollar un tratamiento a base de sustancias de origen biológico, llamadas anticuerpos, que imiten la acción de los antirretrovirales y se puedan administrar sólo una vez al mes", añaden los investigadores.
Hasta ahora, no ha sido posible desarrollar una vacuna debido a la rápida mutación del virus, pero esta posibilidad no se descarta. Mientras tanto, Patiño y Montoya señalan que es importante "desarrollar estrategias para descubrir los reservorios del virus (células donde el VIH se esconde, que no son destruidas por lo medicamentos actuales) y realizar su destrucción selectiva sin afectar otras células normales. También se insiste en la investigación de tratamientos fundamentados en los mecanismos propios de defensa, de manera que los cambios permanentes en la conformación del virus no originen resistencia".
"En los últimos 20 años se han desarrollado varios medicamentos que permiten una calidad de vida muy buena"
Luis Ángel Moreno, coordinador nacional de Onusida (Programa Conjunto de las Naciones Unidas sobre VIH-Sida). www.onusida.org.co
"Existen dos grandes recomendaciones para la terapia antirretroviral: la primera, mantener la ingesta continua, y la segunda, hacerlo en los horarios y condiciones informados por el personal médico. La ventaja que se obtiene al tomar los medicamentos todos los días en las horas acordadas permite su disponibilidad en el organismo de manera constante, lo que a su vez genera un efecto sostenido de inhibición de la replicación viral. Consecuentemente, disminuyen el número de virus en el organismo, su capacidad para replicarse y la afectación del sistema inmunológico de las personas. Algunos medicamentos requieren mantenerse en refrigeración para evitar que pierdan su efectividad".
NUEVOS MATERIALES: PAREDES, TELAS Y ÓRGANOS ¡INTELIGENTES! En los últimos 25 años, los descubrimientos sobre el comportamiento molecular de la materia llevaron a la ciencia a un mejor aprovechamiento de las propiedades de absolutamente todo lo creado hasta ahora.
La capacidad de hacer construcciones sismoresistentes, de almacenar información en dispositivos de apenas algunos milímetros o de crear textiles con propiedades inteligentes, se ha desarrollado gracias a la comprensión molecular de los materiales.
"La ciencia de los materiales relaciona los arreglos de los átomos de la materia con las propiedades macroscópicas de ésta. El comportamiento de los materiales queda definido por su composición química y su estructura, así como por sus propiedades físicas y mecánicas", asegura Miguel Tobar, director del Programa Nacional de Biotecnología de Colciencias.
Estas propiedades físicas y mecánicas se utilizan para darles un valor agregado con fines industriales. Se trata de desarrollos con un alto nivel de especialización, que exigen por lo tanto la confluencia de distintos conocimientos. "La investigación y desarrollo de nuevos materiales constituye una actividad multidisciplinaria, que requiere el concurso de la física, la química, la biología, la matemática, la informática y la ingeniería, así como niveles elevados de conocimiento científico y tecnológico", añade Tobar, quien da una idea sobre la diversidad de sus aplicaciones cuando asegura que abarca desde la producción para computación hasta la industria textil.
Los retos de los materiales avanzados son cada vez mayores, pues, en palabras de Tobar, "deben efectuar una función en un periodo de tiempo largo y sin fallas. Su producción debe ser fácil y económica y sus procesos de obtención y transformación deben ser tan inofensivos para el medio ambiente como sea posible". La investigación del comportamiento atómico de la materia está orientada a cumplir estas funciones, y se espera que, a mayor comprensión molecular, mayor sea la inteligencia de los materiales para todas sus aplicaciones.
"Las telas inteligentes son cada vez más cercanas al usuario promedio"
Ángela María Díez, gerente de mercadeo y comunicaciones para el norte de Suramérica de Invista Colombia.
"Los textiles inteligentes son telas con características especiales que representan un valor agregado aparte de las funciones básicas que todo textil debe cumplir, que son cubrir y vestir. Son tejidos que pasan de ser simples telas funcionales a ser una extensión del cuerpo, capaz de solucionar problemas (como el deterioro prematuro de un tejido por efecto de agentes dañinos como el cloro u otros químicos) o necesidades (como el manejo de la humedad en el caso de los deportistas). Con respecto a sus propiedades, hablamos de físicas y químicas, como toda la materia, pero su función dependerá del segmento de mercado o tipo de consumidor al que van dirigidos. Dentro de las físicas podemos mencionar la refracción y toda alteración en la capacidad de protección a los cambios fuertes de temperatura. Entre las químicas, podemos listar las que buscan mejorar aspectos como la corrosividad así como la resistencia a agentes externos. Encontramos también propiedades antiácaros, de protección solar, luminiscentes, reflectantes, de camuflaje o mimetismo... En fin, la oferta ahora es bastante amplia".
Fuente: Internet, creo se llama la credencial
No hay comentarios:
Publicar un comentario