ACTUALIDAD (NOTICIAS),
SUCESOS, MANZANARES, MÚSICA, RECETAS DE COCINA, CÓCTELES, BIOGRAFÍAS, CHISTES, CIENCIA Y ASTRONOMÍA, HEAVY METAL, AJEDREZ, MATEMÁTICAS, ARTE, HISTORIA, REAL ACADEMIA ESPAÑOLA DE LA LENGUA ESPAÑOLA, CINE, ECONOMÍA, SOCIEDAD, GASTRONOMÍA, TECNOLOGÍA, REINO NATURAL, MUNDO INFANTIL, VIAJAR, SALUD, PARAPSICOLOGÍA Y UFOLOGÍA, JUEGOS Y VIDEOJUEGOS, CULTURA, MOTOR, DEPORTES, CIUDADES ESPAÑOLAS, MITOLOGÍA Y LEYENDAS, GEOGRAFÍA, FRASES CÉLEBRES, ETC...
Adobe Photoshop es un editor de gráficos rasterizados desarrollado por Adobe Systems. Usado principalmente para el retoque de fotografías y gráficos, su nombre en español significa literalmente "taller de fotos". Es líder mundial del mercado de las aplicaciones de edición de imágenes y domina este sector de tal manera que su nombre es ampliamente empleado como sinónimo para la edición de imágenes en general.
Actualmente forma parte de la familia Adobe Creative Suite y es desarrollado y comercializado por Adobe Systems Incorporated inicialmente para computadores Apple pero posteriormente también para plataformas PC con sistema operativo Windows. Su distribución viene en diferentes presentaciones, que van desde su forma individual hasta como parte de un paquete, siendo éstos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y Adobe Creative Suite Master Collection.
Historia
En 1987, Thomas Knoll, un estudiante de la Universidad de Michigan escribió un programa en Macintosh Plus para mostrar imágenes a escala de grises en pantallas monocromáticas. Este programa, llamado Display, llamó la atención de su hermano, John Knoll, un trabajador de Industrial Light & Magic, que recomendó a Thomas convertir su programa en un programa completo editor de imágenes. En 1988, Thomas se tomó un receso de 6 meses de sus estudios para trabajar en el programa, junto con su hermano. Thomas renombró el programa a ImagePro, pero el nombre ya se encontraba registrado.5 Más tarde ese mismo año, Thomas renombró el programa como Photoshop y negoció un trato con el creador de escáneres Barneyscan para distribuir copias del programa con un escáner, "un total de 200 copias de Photoshop fueron distribuidas" de esta manera.
Durante este tiempo, John viajó a Silicon Valley y realizó una demostración del programa a ingenieros de Apple y Russell Brown, director de arte en Adobe. Ambas demostraciones fueron exitosas, y Adobe decidió comprar la licencia para distribuir el programa en septiembre de 1988. Mientras John trabajaba en plug-ins en California, Thomas se quedó en Ann Arbor trabajando en el código. Photoshop 1.0 fue lanzado en 1990 exclusivamente para Macintosh.
Características
Adobe Photoshop en sus versiones iniciales trabajaba en un espacio (bitmap) formado por una sola capa, donde se podían aplicar toda una serie de efectos, textos, marcas y tratamientos. En cierto modo tenía mucho parecido con las tradicionales ampliadoras. En la actualidad lo hace con múltiples capas.
A medida que ha ido evolucionando, el software ha ido incluyendo diversas mejoras fundamentales, como la incorporación de un espacio de trabajo multicapa, inclusión de elementos vectoriales, gestión avanzada de color (ICM / ICC), tratamiento extensivo de tipografías, control y retoque de color, efectos creativos, posibilidad de incorporar plugins de terceras compañías, exportación para sitios web entre otros.
Photoshop se ha convertido, casi desde sus comienzos, en el estándar de facto en retoque fotográfico, pero también se usa extensivamente en multitud de disciplinas del campo del diseño y fotografía, como diseño web, composición de imágenes en mapa de bits, estilismo digital, fotocomposición, edición y grafismos de vídeo y básicamente en cualquier actividad que requiera el tratamiento de imágenes digitales.
Photoshop ha dejado de ser una herramienta únicamente usada por diseñadores, para convertirse en una herramienta usada profusamente por fotógrafos profesionales de todo el mundo, que lo usan para realizar el proceso de retoque y edición digital, no teniendo que pasar ya por un laboratorio más que para la impresión del material.
Con el auge de la fotografía digital en los últimos años, Photoshop se ha ido popularizando cada vez más fuera de los ámbitos profesionales y es quizá, junto a Windows y Flash (de Adobe Systems También) uno de los programas que resulta más familiar (al menos de nombre) a la gente que comienza a usarlo, sobre todo en su versión Photoshop Elements, para el retoque casero fotográfico.
Aunque el propósito principal de Photoshop es la edición fotográfica, éste también puede ser usado para crear imágenes, efectos, gráficos y más en muy buena calidad. Aunque para determinados trabajos que requieren el uso de gráficos vectoriales es más aconsejable utilizar Adobe Illustrator.
Entre las alternativas a este programa, existen algunos programas de software libre como GIMP, orientado a la edición fotográfica en general, o privativos como PhotoPaint de Corel, capaz de trabajar con cualquier característica de los archivos de Photoshop, y también con sus filtros plugin.
Photoshop fue creado en el año 1990, soporta muchos tipos de archivos de imágenes, como BMP, JPG, PNG, GIF, entre otros, además tiene formatos de imagen propios. Los formatos soportados por Photoshop son:
PSD, PDD: formato estándar de Photoshop con soporte de capas.
PostScript: no es exactamente un formato, sino un lenguaje de descripción de páginas. Se suele encontrar documentos en PostScript. Utiliza primitivas de dibujo para poder editarlo.
EPS: es una versión de PostScript, se utiliza para situar imágenes en un documento. Es compatible con programas vectoriales y de autoedición.
DCS: fue creado por Quark (empresa de software para autoedición) y permite almacenar tipografía, tramas, etc. Se utiliza para filmación en autoedición.
Prev. EPS TIFF: permite visualizar archivos EPS que no se abren en Photoshop, por ejemplo los de QuarkXPress.
BMP: formato estándar de Windows.
GIF: muy utilizado para las web. Permite almacenar un canal alfa para dotarlo de transparencia, y salvarlo como entrelazado para que al cargarlo en la web lo haga en varios pasos. Admite hasta 256 colores.
JPEG: también muy utilizado en la web, factor de compresión muy alto y buena calidad de imagen.
TIFF: una solución creada para pasar de PC a MAC y viceversa.
PICT: desde plataformas MAC se exporta a programas de autoedición como QuarkXPress.
PNG: la misma utilización que los GIF, pero con mayor calidad. Soporta transparencia y colores a 24 bits. Solo las versiones recientes de navegadores pueden soportarlos.
PDF: formato original de Acrobat. Permite almacenar imágenes vectoriales y mapa de bits.
ICO: es utilizado para representar archivos, carpetas, programas, unidades de almacenamiento, etc.
IFF: se utiliza para intercambio de datos con Amiga.
PCX: formato solo para PC. Permite colores a 1, 4, 8 y 24 bits.
RAW: formato estándar para cualquier plataforma o programa gráfico.
TGA: compatible con equipos con tarjeta gráfica de Truevision.
Scitex CT: formato utilizado para documentos de calidad profesional.
Filmstrip: se utiliza para hacer animaciones. También se puede importar o exportar a Premiere.
FlashPix: formato originario de Kodak para abrir de forma rápida imágenes de calidad superior.
JPEG2000: al igual que el JPEG, es nuevo formato de compresión que permite aumentar la calidad de la imagen.
Idiomas disponibles Adobe Photoshop está disponible en los siguientes idiomas: Portugués, chino simplificado, chino tradicional, checo, danés, español, neerlandés, inglés, finlandés, francés, alemán, húngaro, italiano, japonés, coreano, noruego, polaco, rumano, ruso, sueco, turco y ucraniano.11 Los textos en árabe, griego, hebreo, Oriente Medio y Norteafricano están disponibles en Winsoft.
Gino Tubaro (Buenos Aires, 6 de octubre de 1995) es un inventor argentino y estudiante de ingeniería electrónica. Inició sus estudios en 2014 en la Universidad Tecnológica Nacional. Se ha especializado en la Impresión 3D y en la creación de extremidades prostéticas realizadas en impresoras 3D. Estas prótesis se distribuyen mediante la ONG Atomic Lab a más de 44 países alcanzando más de 1300 entregas gratuitas.
De niño participó en talleres de incentivo. Concurrió a la escuela primaria en el Instituto Bernasconi y completó los estudios de secundaria en las Escuelas Técnicas ORT siguiendo la orientación de electrónica, mediante una beca. En 2013 cofundó Darwin Research, donde fabricó la primera prótesis que imprimió en 3D con su impresora 3D basada en materiales reciclados y del proyecto Rep Rap (una Prusa Mendel). De 2014 a 2015 trabajó en Argentina en 3D, una iniciativa que se convirtió en programa público con el apoyo de la Jefatura de Gabinetes de Ministros en Argentina, dicho programa continuo sin él porque no compartió la ideología política del mismo.
Posterior a eso, trabajó como asesor en el Laboratorio del Centro Metropolitano de Diseño y luego funda la ONG Atomic Lab en 2015, una organización creada para facilitar el acceso a prótesis a miles de personas con recursos limitados, dicha organización nace sin ningún interés político. Algunos de sus proyectos incluyen un traductor en tiempo real de braille dinámico, un pequeño instrumento musical llamado Sound Cube y una impresora 3D hecha a partir de pantallas de teléfonos móviles.
Recibió dos premios entregados por la Organización Mundial de la Propiedad Intelectual (OMPI / WIPO), entidad avalada por la ONU. En 2008 recibió el premio al “Mejor joven inventor” por su presentación sobre dispositivos de seguridad para hogares y mini robots. En el 2010 fue ganador de las “Olimpíadas de Inventiva”.
En el 2012 fue orador en TEDxRiodelaPlata, donde presentó en su charla el "Ladrón de energía" y el mencionado "Sound Cube". En 2013, Gino Tubaro fue seleccionado para participar en el Campamento Nacional de Ciencias para Jóvenes (NYSC), un programa patrocinado por el Departamento de Estado de los Estados Unidos, el estado de West Virginia y la National Youth Science Fundation.
En 2014 ofreció una segunda charla TEDx en TEDxUTN. El discurso describió un concepto de creación propia, el "Súper hombre de Darwin", que plantea la posibilidad de obtener habilidades superiores a partir del trabajo para solucionar incapacidades físicas.
También durante ese año, fue seleccionado como uno de los 10 jóvenes sobresalientes de la República Argentina por parte de Junior Chamber International y la Cámara Argentina de Comercio (Premios TOYP).
En 2015 fue destacado como "Alumni del mes" a nivel mundial por el Departamento de Estado de los Estados Unidos y la Embajada de los Estados Unidos en "reconocimiento a su liderazgo en crear innovadoras soluciones para ayudar a las personas con discapacidades a vivir sin límites". El presidente de los Estados Unidos, Barack Obama, destacó el caso de Gino Tubaro durante su encuentro con jóvenes emprendedores de Argentina.
Ganó como Innovador del Año por Atomic Lab en 2015 durante la 4.a edición de Innovadores menores de 35 años de Argentina y Uruguay, el reconocimiento para jóvenes más prestigioso del mundo de MIT Technology Review, la publicación más antigua del Instituto de Tecnología de Massachusetts (MIT). Además por History Channel como el ganador de “Una idea para cambiar la historia” seleccionado entre participantes de toda Lationoamérica.
En 2017 publicó el libro Las manos que inventan : tecnología y solidaridad: una forma de hacer para los demás, de Ediciones Paidós.
Gino ha creado un sistema llamado mecanomiografía con el cual es posible interpretar los impulsos nerviosos responsables de las contracciones musculares y trasladarlas al usuario en forma de respuestas sensoriales que traducen las acciones desempeñadas por la prótesis, por el cual no se requiere cirugía.
Durante el 2018, Gino con su equipo recorrieron Argentina en una travesía que llamó "Argentinaton", la cual contó de modificar una camioneta Ford Ranger para que esta tenga una impresora 3D solar y pudiera imprimir en la ruta, "Mil Manos por Argentina" fue un proyecto de 25 000 km con más de 100 prótesis entregadas. Del mismo, se creó un documental con la productora StoryLab. Esta docu-serie se estrenó el 11 de diciembre de 2019 en la plataforma Flow y obtuvo el premio "Martin Fierro digital" al mejor contenido temático.
En las navidades desde 2016 al 2019, el equipo de Atomic Lab preparan una fiesta de Navidad llamada Navidatón para todas los niños que solicitaron una prótesis, entregándoles en sus hogares las prótesis que habían solicitado, durante estas fechas especiales, se entregaron más de 60 prótesis gratuitas en total. Es una actividad especial del "proyecto madre se llama “Limbs” y tiene por objetivo cambiar la vida de las personas con una amputación (desde 4 a 104 años), sin limitaciones de país o recursos económicos.
El proyecto original tuvo distintos derivados, uno de ellos fue armar un taller donde personas privadas de la libertad en los talleres del penal n.º 4 de Ezeiza y en el de Jóvenes Adultos de Marcos Paz pudieron aprender cómo imprimir y armar las prótesis, generando un cambio desde adentro de la cárcel para el exterior. Siendo esta la primera actividad en el mundo donde personas privadas de la libertad utilizaron impresoras 3D para hacer prótesis 3D.
En septiembre de 2019 Gino Tubaro fue declarado "Personalidad Destacada de la Ciudad Autónoma de Buenos Aires en el ámbito de los Derechos Humanos, por su gran aporte en la producción solidaria de prótesis ortopédicas impresas en 3D.
En el año 2020 viajó a México a entregar 500 prótesis de mano y quedó varado allí por el estallido de la pandemia del COVID-19. Posteriormente pudo regresar al gestionar el acceso a un vuelo y a su vuelta se unió al movimiento de producción de máscaras de protección para el personal de salud. Comunicó que se realizaría ese aporte desde el hotel donde fue asignado para cumplir el proceso de cuarentena y luego se trasladó al taller de su proyecto.
Para facilitar el uso de las tabletas, ha nacido "Cosmonaut", un lápiz parecido a la típica cera de colores para niños que posee una punta redondeada para desplazarse por la pantalla. Y es que en muchas ocasiones el manejo de los dedos puede ralentizar las funciones que el usuario realiza con su dispositivo.
"Cosmonaut", creado por los diseñadores estadounidenses Dan Provost, y Tom Gerhardt, se basa en un material constructor que transfiere las cargas eléctricas de los dedos a la pantalla de la tableta.
DAN PROVOST
TOM GERHARDT
Según cuentan sus creadores, la idea de esta herramienta surgió a partir del concepto "Do It Yourself", es decir, la posibilidad de hacerlo tú mismo. Ambos coinciden en que, a pesar de que "Cosmonaut" no destaca por su estética, cumple sus funciones satisfactoriamente: “Es cómodo y se desliza fácilmente sobre la superficie de cristal de la tableta", aseguran.
"Cosmonaut" es compatible con cualquier dispositivo de pantalla táctil capacitiva, como iPad, iPhone, iPod Touch, Samsung Galaxy Tab, y Motorola Xoom, entre otros.
Auto-Tune es un procesador de audio creado por Antares Audio Technologies para vocales e instrumentales. Es usado para enmascarar inexactitudes y errores, por lo que ha permitido a muchos artistas producir grabaciones con afinación mucho más precisa. El Auto-Tune es también utilizado como un recurso artístico con el que obtener efectos y sonidos interesantes.
Auto-Tune fue utilizado para producir el efecto de distorsión vocal en la canción «Believe» de la cantante Cher grabada en 1998. «Believe» fue la primera grabación comercial en utilizar este software con ese propósito. Después del éxito de dicha canción se le conoció también como el «efecto Cher».
Inicialmente fue creado por Andy Hildebrand, un ingeniero trabajador de Exxon. Auto-Tune está disponible como un plugin para programas profesionales de audio usados en entornos de estudio, tales como ProTools, Cubase, FL Studio y como "stand-alone", unidad de "rackmount" para procesamiento en presentaciones en vivo.
Usos
La armonización está pensada para incrementar la calidad musical de las partes vocales sin que sea evidente que el canto ha sido procesado. Sin embargo, con valores extremos en los parámetros, voluntariamente, con fines creativos, el Auto-Tune se ha convertido en un popular efecto de voz.
El artista estadounidense de R&B T-Pain ha relacionado este efecto con su estilo utilizándolo recurrentemente en casi la totalidad de su música. También esto caracteriza al grupo de eurodance Eiffel 65. El rapero estadounidense Kanye West lo ha usado en varias de sus canciones, al igual que Lady Gaga con sus exitosas canciones "Poker Face", "Eh Eh", "Bad Romance", "Aura" y "Venus". El sonido particular que da este efecto se parece, por sus tonos precisos y de rápido cambio, a la sonoridad que se logra mediante vocoder o talkbox. Los artistas que usan Auto-Tune suelen recibir críticas negativas porque esto hace que se ponga en duda su talento vocal. Uno de los artistas que se oponen totalmente al Auto-Tune es el rapero estadounidense Jay-Z, de tal manera que el segundo sencillo de su disco The Blueprint 3 llevó por nombre «(D.O.A.) Death Of Auto-Tune» (Trad. en español como, La Muerte del Auto-Tune).
Existe un software similar, llamado Melodyne, el cual le ha ido ganando campo al Auto-Tune, sobre todo en el área de producción, debido a que permite la edición manual del tono, teniendo unos alcances menos limitados que el software de Antares. Sin embargo, esta ventaja no existe cuando este se usa en vivo.
Historia
Auto-Tune fue creado por Andy Hildebrand, un geofísico y músico aficionado que desarrolló complejos algoritmos para Exxon para interpretar datos generados por una onda sísmica para encontrar depósitos subterráneos de petróleo. Hildebrand descubrió que sus métodos para interpretar datos sísmicos podía ser utilizado para detectar, analizar y modificar el tono en archivos de audio. Su método para detectar el tono incluía el uso de autocorrelación y prometía ser superior a intentos anteriores, basados en la extracción, de características que tenían problemas procesando ciertos aspectos de la voz humana, como los diptongos. La industria musical consideraba que el uso de autocorrelación no era práctico debido al gran esfuerzo computacional requerido, pero Hildebrand encontró una simplificación que redujo casi un millón de multipply adds a solo cuatro. Después de varios meses, a principios de 1996, implementó el algoritmo en un ordenador Macintosh personalizado y presentó el resultado en el NAMM Show ese mismo año.
Hildebrand tuvo la idea de la tecnología correctora de tono para voz después la sugerencia de un amigo de su mujer, que había estado bromeando que podría crear un aparato para hacerla afinar. Originalmente, Auto-Tune estaba diseñado para corregir discretamente entonaciones imprecisas, con el objetivo de hacer la música más expresiva. La patente original afirmaba que “Cuando las voces o instrumentos están desafinados, las cualidades emocionales de la actuación se pierden.”
De acuerdo con Chris Lee de Los Angeles Times, la canción “Believe”, interpretada por Cher en el año 1998, inyectó las modulaciones mecánicas de Auto-Tune en el pop conscientemente. Los productores de Cher utilizaron el programa para “exagerar la artificialidad de una corrección de tono abrupta”, lo contrario a su propósito original.
En una entrevista, los productores de “Believe” afirmaron haber utilizado un pedal DigiTech Talker FX, en lo que los editores de Sound on Sound consideraron un intento por mantener un secreto comercial. Después del éxito de “Believe” esta técnica fue inicialmente conocida cono “efecto Cher”. En el año 2000, el sencillo “Naive Song”, interpretado por Mirwais Ahmadzai en su álbum Production fue el primer tema en utilizar Auto-Tune en toda la letra.
El uso de Auto-Tune como un efecto vocal fue popularizado a finales de la década de los 2000 por el artista de hip hop/R&B T-Pain, que elaboró el efecto e hizo un uso activo del Auto-Tune en sus canciones. Este nombraba el uso de la Talk Box del productor de new Jack swing Teddy Riley y al artista de funk Roger Troutman como inspiraciones para su uso del Auto-Tune. Se empezó entonces a vincular a T-Pain con el Auto-Tune hasta el punto de que tenía una app para iPhone que simulaba este efecto llamada “I Am T-Pain”.
Ahora apodado “efecto T-Pain”, el uso del Auto-Tune se convirtió en un elemento habitual de la música de finales de la década de los 2000, donde fue especialmente utilizado en la obra de otros artistas de hip hop/R&B, incluyendo el sencillo de Snoop Dogg “Sexual Seduction”, “Lollipop” de Lil Wayne y el álbum de Kanye West 8o8s & Heartbreak. En 2009, durante el auge de la popularidad del Auto-Tune, The Black Eyed Peas hicieron un importante uso del Auto-Tune y otros efectos artificiales de sonido en su hit número uno “Boom Boom Pow” para crear un sonido futurista.
El grupo inglés Radiohead utilizó Auto-Tune en su álbum de 2001 Amnesiac para crear un “sonido nasal y despersonalizado” y para convertir un discurso hablado en música. De acuerdo con el cantante Thom Yorke, el software “intenta desesperadamente buscar música en tu discurso, y produce notas aleatorias. Si les asignas una tonalidad, tienes música”.
El uso de Auto-Tune en el hip hop ha resurgido a mitad de la década de 2010, especialmente en la música trap. Los artistas de hip hop como Future, Migos, Travis Scott y Lil Uzi Vert utilizan Auto-Tune para crear un sonido característico que les diferencie.
El efecto también se ha popularizado en la música raï y otros géneros de África del Norte. De acuerdo con el Boston Herald, las estrellas del country Faith Hill, Shania Twain y Tim McGraw utilizan Auto-Tune en sus actuaciones en directo, llamándolo red de seguridad que garantiza una buena actuación. De todos modos, otros artistas de country como Allison Moorer, Trisha Yearwood, Vince Gill, Garth Brooks y Martina McBride, han negado el uso de Auto-Tune.
Aunque puede que parezca que la alta tecnología poco puede hacer en lugares donde no tienen los mínimos recursos para sobrevivir, hay avances que pueden mejorar radicalmente la vida de los países más pobres.
Pensar en un portátil o en un teléfono móvil en una aldea perdida en medio de un desierto africano puede parecernos extraño, pero las nuevas tecnologías pueden ayudar a cambiar las condiciones de vida de los pueblos más pobres del planeta.
De hecho, la aparición de la telefonía móvil ha supuesto una revolución en las comunicaciones.
Comunidades que vivían totalmente aisladas ahora pueden estar conectadas en todo momento, pudiendo realizar llamadas de emergencia, o simplemente estando en contacto con sus familiares a varios cientos de kilómetros de distancia.
Pero hay muchos otros avances especialmente pensados para los países en desarrollo que mejorarán la calidad de vida de sus ciudadanos.
Repasemos cinco de ellos.
LAS OTRAS BOMBAS DE RACIMO
Las bombas de racimo son armas mortíferas que causan cada año miles de amputaciones en todos los países con conflictos armados en los que se utilizan.
Su principio de funcionamiento es muy sencillo: a pocos metros del suelo, la carcasa esparce varias cargas explosivas que estallan al hacer contacto con el suelo... casi siempre.
Cuando no lo hacen, se quedan en el suelo, para muchas veces herir a un civil que pase por su cercanía.
Ahora se plantea realizar un prototipo de bomba de racimo muy diferente, pensada para repoblar con vegetación grandes extensiones de terreno.
Con una carcasa de plástico biodegradable, la bomba de racimo llevaría en su interior todo lo necesario para hacer crecer vegetación: semillas, tierra, abono, y una pequeña cantidad de agua.
Las bombas serían lanzadas desde un avión sobre el área a repoblar, y al estallar, esparcirían las semillas por una superficie amplia de terreno.
Un ejemplo genial de transformación de una tecnología de muerte en otra de vida.
MINI-GENERADORES EÓLICOS
Una de los principales problemas para la implantación de tecnologías que puedan ayudar en lugares remotos es la falta de energía eléctrica, ya sea por su carencia absoluta o por la mala calidad de las instalaciones existentes, que no proveen de una tensión suficiente al equipamiento.
La mejor solución para estos casos es la energía eólica. La solar requiere de una instalación y un mantenimiento que actualmente la hacen demasiado cara, mientras que hacer que el viento juegue a nuestro favor es algo que la mayoría de sociedades ya vienen haciendo desde hace siglos en forma de molinos de viento.
Así, lo que se necesita es proveer a las comunidades remotas de pequeños aerogeneradores que necesiten un mantenimiento mínimo y que les permitan gozar de suficiente energía eléctrica para utilizar el equipamiento que, como veremos más adelante, puede salvarles la vida.
EL PODER DEL ÁTOMO
Sin embargo, para que los generadores eólicos funcionen, se necesita viento, algo que no siempre está disponible, dependiendo del lugar del planeta en el que nos encontremos.
Para esos casos, y para muchos otros, la compañía Hyperion ha creado un ambicioso proyecto de creación de mini-centrales nucleares.
Se trata realmente de una especie de pilas nucleares pensadas para pequeñas comunidades. Operan sin supervisión externa y con material de una radioactividad mucho más baja que las centrales convencionales, y su tamaño las hace perfectas para cualquier pueblo medianamente grande (hasta 20.000 hogares).
El mayor problema (aparte del concepto de optar por la energía atómica) es su precio: 25 millones de dólares la unidad. Claro que, si lo que dice el fabricante es cierto, se trataría de una manera de dar electricidad a muy bajo precio a largo plazo, dado su nulo mantenimiento y su largo tiempo de operación antes de necesitar ningún tipo de "recarga".
ELECTRICIDAD=AGUA
¿Y para qué tanta electricidad? Realmente lo que más necesitan los pueblos del tercer mundo es un acceso fácil y barato al agua potable.
El disponer de una fuente de energía eléctrica estable permitiría la construcción de pequeñas plantas dehumidificadoras, pensadas para extraer la humedad del aire, de plantas desalinizadoras, para comunidades que vivan cerca del mar, o de potabilizadoras, para las que vivan cerca de fuentes de agua insalubre.
La tecnología para mejorar la vida de las comunidades remotas del tercer mundo existe, sólo hace falta que gobiernos e instituciones se pongan de acuerdo para que la ayuda llegue allí donde se necesita. Se trata únicamente de crear las condiciones mínimas como para que puedan salir adelante ellos mismos.
EDUCACIÓN DIGITAL
Pero quizás uno de los proyectos más sonados en lo referente a la tecnología y el tercer mundo es "One Laptop Per Child" (un portátil para cada niño), gracias al cual se diseñó un portátil especialmente pensado para países en desarrollo. Cuenta con lo más básico y, lo que es más importante, un sistema facilísimo de carga manual (dándole vueltas a una manivela).
El principio es sencillo: si las nuevas generaciones crecen con acceso a la tecnología, ayudarán a desarrollarla en sus comunidades.
El hidrato de metano, también denominado clatrato de metano o clatrato hidrato de metano, es un compuesto de inclusión de tipo clatrato hidrato en el cual moléculas de agua conforman una estructura cristalina mediante enlaces por puentes de hidrógeno dando lugar a cavidades en cuyo interior se encuentran moléculas de metano (u otros hidrocarburos ligeros como etano y propano cuando se trata de hidrato de gas natural) que estabilizan la estructura que, de otro modo, es inestable termodinámicamente, pero que no establecen enlaces químicos con las moléculas de agua de la estructura.
Formación de hidrato de metano
Los hidratos de metano son moléculas de metano en estructuras de moléculas de agua, que bajo condiciones de presión y temperatura que existen en el talud continental y en las regiones polares (permafrost) se convierten en sustancias sólidas cristalinas (hielos de metano). Se encuentran principalmente en los poros de los sedimentos arenosos cementándolos.
En el medio marino se explica su formación de una forma un tanto compleja. El metano que resulta de la descomposición de los organismos vivientes en el agua, reacciona con el agua a punto de congelarse formando hidratos, que después se aposentarán en los fondos marinos. La reacción se produce en condiciones de presión y temperatura particulares. El hidrato de metano es particularmente inestable.
Propiedades
Un metro cúbico de hidrato de metano contiene aproximadamente 164 metros cúbicos de gas metano con tan solo 0.84 metros cúbicos de agua. Este "hielo" es inflamable: si se le acerca una llama, libera gas metano que arderá.
Los hidratos de metano constituyen una fuente energética alternativa de gran proyección mundial, con reservas estimadas que prácticamente duplican las reservas convencionales actualmente reconocidas para los recursos energéticos fósiles. Así, se pretende utilizar este compuesto como otro combustible más adelante, de manera similar al petróleo o el gas natural.
Durante su extracción es bastante difícil que no se libere metano. Esto ha limitado su explotación, ya que si se libera metano a la atmósfera, podríamos incrementar el efecto invernadero de manera considerable, con un efecto 21 veces superior al del dióxido de carbono.
Historia
-En 1810 Humphrey Davy y Michael Faraday describen por primera vez los hidratos de gas.
-En 1888 Villard encuentra experimentalmente hidratos de CH4, C2H6, C2H2 y N2O.
-En 1930 Hammerschmidt determina que los hidratos bloquean gasoductos e investiga los gases inhibidores.
-En 1960 los soviéticos reconocen el hidrato de metano como una posible fuente de energía, y descubren y producen en volúmenes pequeños el primer depósito de hidratos en el permafrost siberiano.
-En 1990, se realiza la caracterización inicial y cuantificación de hidratos de metano en depósitos en aguas profundas. En 2000, empiezan los esfuerzos por cuantificar las características y abundancia de los hidratos, y comienzan los esfuerzos de aprovechar el gran potencial de los hidratos como combustible.
JAPÓN Y EL HIDRATO DE METANO
El país del sol naciente es el principal impulsor del proyecto de extracción de Hidrato de Metano, ya que en su fondo marino se encuentra la mayor cantidad de este gas, muy peligroso al extraerlo, pues se podrían dar catástrofes naturales por una mala extracción, pero por otra parte, puede convertirse en hidrógeno, que es una energía limpia y barata y podría abastecer a Japón en los próximos 100 años.
Algunas empresas niponas del sector automovilístico ya han creado prototipos de vehículos impulsados por hidrógeno, sustituyendo a los que utilizan derivados del petróleo. En Japón, confían en el Hidrato de Metano como el combustible del futuro, tanto para su país, como para la exportación al comercio mundial.
El Eurotúnel es un túnel ferroviario que cruza el canal de la Mancha, uniendo Francia con el Reino Unido. Es una importante infraestructura del transporte internacional. Fue abierto el 6 de mayo de 1994. Su travesía dura aproximadamente 35 minutos entre Calais/Coquelles (Francia) y Folkestone (Reino Unido). Es el segundo túnel más largo del mundo, sólo sobrepasado por el túnel Seikan de Japón.
En 2013, Eurotúnel, generó un volumen de negocios de 1090 millones de euros.
Características técnicas
El servicio ferroviario por el Eurotúnel tiene dos variantes: el Eurostar, para pasajeros, y el Shuttle, que transporta camiones, automóviles y motos.
Tiene una longitud de 50,5 km, 39 de ellos submarinos, siendo así el segundo túnel submarino más largo del mundo, con una profundidad media de 40 metros, detrás del Túnel Seikan, cuya longitud es de 53 km, a 240 m de profundidad.
Está formado por tres galerías:
Dos túneles de 7,6 m de diámetro reservados para el transporte ferroviario, uno de ida y otro de vuelta (A).
Una galería de servicios de 4,8 m, preparada para la circulación de vehículos eléctricos (B).
Estas tres galerías están unidas cada 375 m por otras galerías transversales de auxilio y mantenimiento (C) y (D), que permiten que haya una corriente de aire para disminuir la presión, evitando así la propagación del humo en caso de incendio, así como la resistencia aerodinámica al paso de los trenes que circulan a 140 km/h.
Ventajas
El tren de alta velocidad Eurostar tarda 2 horas y 20 minutos para ir de Londres a París, y 1 hora y 57 minutos de Londres a Bruselas.
Las cargas se desplazan por un tren en vez de ser transportadas por camiones o ferris a través del Canal, sujeta a huelgas portuarias o condiciones meteorológicas adversas.
Los automovilistas entran en los trenes de transbordo y pueden permanecer en sus vehículos o pasear mientras cruzan el túnel. Los camioneros meten el camión en los vagones, y un minibus les traslada al vagón club, donde tienen asientos y un servicio de catering.
Construcción
La máquina perforadora utilizada para excavar el túnel, fue construida por franceses y británicos. Con una forma cilíndrica, la máquina perforadora lleva varias cuchillas (“dientes”) montadas en su parte frontal. Los dientes están hechos de un metal extremadamente duro y al girar van penetrando en el terreno, haciendo espacio para que la máquina pueda seguir avanzando. La perforadora empleada en el Eurotúnel tenía 8,78 m de diámetro y 200 m de longitud, con un peso total de 11.000 toneladas. Es capaz de penetrar en terrenos, desde los blandos a los rocosos, avanzando 20 km sin interrupción.
Los túneles requieren una sólida comprensión de la geología y la selección de los mejores estratos de roca a través del cual hacer el túnel. Las características incluyen:
Tiza en los acantilados a ambos lados del canal que contiene fallas importantes.
Cuatro estratos geológicos, sedimentos marinos previstos 90 – 100 con tiza en superior y medio por encima de la tiza más baja ligeramente permeable y finalmente impermeables y un estrato de arenoso.
La capa de tiza (Francés: craie bleue) en el tercio inferior más bajo pareció presentar el mejor medio de hacer túneles. La tiza es todavía relativamente de fácil excavación con fuerza permitiendo un mínimo apoyo y tiene un contenido de arcilla de 30 – 40% que proporciona impermeabilidad al agua subterránea. Sociedad concesionaria
Ubicación y conexiones.
Fue financiado por sociedades privadas, sin intervención estatal, a cambio de la concesión de su explotación hasta 2052. Un estudio realizado en 1984 por bancos franceses y británicos consideraba viable el proyecto. El gobierno británico, dirigido por Margaret Thatcher, se opuso a la financiación pública del proyecto, postura acordada con el gobierno francés en el Tratado de Canterbury.
El coste fue de 16.000 millones de euros. Las dificultades de coordinación entre empresas contratadas y subcontratadas y la dificultad técnica del proyecto elevaron considerablemente los costes.
Eurotunnel es una sociedad privada concesionaria del proyecto. Gestiona el transporte ferroviario, cobrando peaje a las compañías ferroviarias que utilizan el túnel y explotando con sus propios medios el tráfico de mercancías y pasajeros. La demanda ha sido menor de lo previsto debido, principalmente, a las compañías aéreas de bajo coste; sobre una previsión de 30 millones de viajeros y 15 millones de toneladas anuales de mercancías, en 2013 se transportaron 18,882 millones de viajeros y 19,081 millones de toneladas de mercancías, contando los trenes (10,133 y 1,364, respectivamente) y las lanzaderas.
Entrada de otros operadores
Tras el cambio de la normativa de seguridad por parte de la Channel Tunnel Safety Authority (CTSA) para trenes de viajeros en el Eurotúnel, las cuales fueron discutidas (16/11/2009) con los fabricantes y operadores, ésta otorgó en junio de 2013 a la operadora alemana DB la Parte B del Certificado de Seguridad, que reconoce que se dispone de un Sistema de Gestión de Seguridad que satisface la normativa comunitaria para este tramo. Es decir: que cumple los trámites de seguridad y organización, lo cual faculta a DB a poner servicios por el Eurotúnel con cualquier material homologado. Esto no tiene nada que ver con la supuesta homologación de los trenes Velaro D ya que, además, las pruebas de evacuación en el Eurotúnel, realizadas en octubre de 2010, se llevaron a cabo con un ICE 3M, el mismo que fue expuesto en la estación londinense de St. Pancras. La Parte A del certificado confirma que la Empresa Ferroviaria dispone de un Sistema de Gestión de Seguridad que satisface las normas y requisitos europeos y nacionales, de forma armonizada en el conjunto del sistema ferroviario europeo; mientras que la Parte B confirma la aplicación de dicho Sistema de Gestión de Seguridad para circular por una determinada infraestructura (un recorrido punto a punto por una línea). El Certificado tiene una validez de cinco años, renovable por periodos sucesivos iguales, siempre que se cumplan las condiciones normativas exigidas para su otorgamiento.
Posteriormente, la UKBA (The UK Border Agency) explicó que no habrá controles fuera de los actuales (Lille, París y Bruselas), y que no le gusta la sugerencia de DB de que los controles se hagan a bordo de los trenes.
Por su parte, SNCF está doblando la capacidad de la zona de control de pasaportes en la estación de Lille-Europe. Tras estas noticias, además de las dificultades para homologar los Velaro D incluso en Alemania, DB ha aparcado sus planes para llegar a Londres, al menos en esta década.
Ahora Eurostar anuncia un servicio hasta Marsella en 2015 que requerirá una parada de 103 minutos en Lille (sentido Londres) para el control de equipajes y pasaportes.
Incendios
Varios son los incidentes de esta naturaleza que han ocurrido en el Eurotúnel; exactamente desde su inauguración se han producido cuatro incendios:
El primero ocurrió en noviembre de 1996, cuando un camión se incendió provocando el corte del túnel durante varios meses.
El segundo de ellos tuvo lugar en agosto de 2006, por el mismo motivo, pero esta vez sin causar daño alguno.
Otro se produjo el 11 de septiembre de 2008, por un tren de carga incendiado, interrumpiendo todo el tráfico y el servicio de pasajeros.
Finalmente, el último de los incendios conocidos hasta el momento se produjo el 17 de enero de 2015, un camión se incendió en el extremo francés del túnel, el accidente obligó a cerrar el Eurotúnel todo el día.
3:LA ANESTESIA EPIDURAL
La anestesia epidural o anestesia peridural es la introducción de anestésico local en el espacio epidural, bloqueando así las terminaciones nerviosas en su salida de la médula espinal. Por lo tanto, su distribución será metamérica, es decir, se anestesiará la zona del cuerpo que corresponde a los nervios que han sido alcanzados por el anestésico local inyectado.
Se considera lenguaje coloquial abreviar la expresión como epidural (p.ej. "poner la epidural").
Historia
El neurólogo estadounidense James Leonard Corning (1855-1923) fue el primero en realizar un bloqueo neuraxial en 1885 cuando inyectó 111 mg de cocaína en el espacio epidural de un voluntario. En 1921 el cirujano militar español Fidel Pagés (1886–1923) la desarrolló convirtiéndose así en el inventor de esta técnica, de acuerdo a la sociedad científica internacional. Además desarrolló la anestesia lumbar epidural de inyección única que luego popularizó el cirujano italiano Achille Mario Dogliotti (1897–1966). El primer uso de una anestesia de caudal continuo durante un parto fue en 1942 y fue desarrollado por Robert Andrew Hingson (1913-1996) y Waldo B. Edwards. En 1947, el cubano Manuel Martínez Curbelo (1906–1962) describió la colocación de un catéter lumbar epidural.
4: EL FUTBOLÍN
El futbolín es un juego de mesa basado en el fútbol. Se juega sobre una mesa especial sobre la cual ejes transversales con palancas con forma de jugador son girados por los jugadores o jugadoras para golpear una pelota.
En España existen dos tipos diferentes de juego, habiéndose creado paralelamente un tipo de fútbol de mesa diferente al inglés, con diferentes medidas. Mientras que en el fútbol de mesa internacional los jugadores tienen las piernas juntas, en España la mayoría son con las piernas separadas.
Origen
La primera patente1 del futbolín fecha de 1880-1890 en España, donde se creó un modelo de pequeñas dimensiones con los jugadores con sus piernas unidas.
Posteriormente en España se inventaba otro tipo de futbolín cuyos muñecos tenían las piernas separadas. La idea fue del gallego Alejandro Finisterre, seudónimo de Alejandro Campos Ramírez, conocida gracias al relato difundido por él mismo, según el cual recordaba que, tras resultar herido durante uno de los bombardeos de Madrid durante la Guerra Civil Española, vio en el hospital que muchos niños heridos como él no podían, por ejemplo, jugar al fútbol. Entonces se le ocurrió la idea del futbolín, basándose en otros juegos de mesa. Alejandro confió a su amigo Francisco Javier Altuna, de oficio carpintero, la realización del primer futbolín siguiendo sus instrucciones. Aunque la invención se patentó en 1937, Finisterre tuvo que exiliarse a Francia a causa del triunfo franquista en la guerra, perdiendo los papeles de la patente en una tormenta, por lo que no hay forma de saber cómo era este diseño original ni su forma o medidas. Después de exiliarse en América del Sur, introdujo algunos cambios (como las barras de acero), y divulgó el juego por el continente.
El juego se expandió rápidamente por la Península Ibérica. Tanto es así, que en la década de los 60, cuando Alejandro Finisterre volvió a España, el juego se había extendido ampliamente, a pesar de que gran parte de esta divulgación se debiera al hecho de que los fabricantes valencianos asumieran el juego como nacional (de España).
5: EL SUBMARINO
A mediados del siglo XIX, en 1859, el catalán Narciso Monturiol sorprendía al mundo naval con el primer buque sumergible. Era de madera y su propulsor era manual, algo que solucionaría unas décadas más tarde el ingeniero murciano Isaac Peral, que en 1888 diseñó el primer submarino de acero impulsado por energía eléctrica: toda una revolución. Gracias al apoyo de la reina regente María Cristina, el submarino fue finalmente botado el 8 de septiembre de 1888. El buque medía 22 m de eslora, 2,76 m de puntal, 2,87 m de manga y desplazaba 77 tn en superficie y 85 tn en inmersión. La propulsión se obtenía de dos motores eléctricos de 30 caballos cada uno; la energía la suministraba una batería de 613 elementos. Incorporaba además un tubo lanzatorpedos, tres torpedos, periscopio, un sofisticado "aparato de profundidades", que permitía al submarino navegar en inmersión a la cota de profundidad deseada por su comandante y mantener el trimado del buque en todo momento, incluso tras el lanzamiento de los torpedos. Y todos los mecanismos necesarios para navegar en inmersión hacia el rumbo prefijado.
6: LA CALCULADORA DIGITAL
La historia de la calculadora está plagada de inventos españoles. Aunque la primera calculadora mecánica se remonta al siglo XVII, cuando el filósofo y científico francés Blaise Pascal creó la primera calculadora mecánica, fue el inventor español Ramón Verea quien, en 1878, logró diseñar en Nueva York la primera calculadora mecánica capaz de realizar las cuatro operaciones aritméticas básicas (suma, resta, división y multiplicación), manejando cifras de hasta nueve dígitos.
También hay quien considera a Leonardo Torres Quevedo (1852-1936) como el precursor de las primeras calculadoras digitales, e incluso de la informática en general, gracias a un aritmómetro electromecánico capaz de realizar operaciones complejas.
7: EL TELEFÉRICO
Fue en 1887 cuando, de nuevo, Leonardo Torres Quevedo, registró la primera patente de lo que él llamó “Sistema de camino funicular aéreo de alambres múltiples”, aunque no fue hasta 1907 que el primer teleférico para el transporte de personas entrara en funcionamiento en San Sebastián, para permitir a la aristocracia donostiarra acceder sin problemas a la cima del monte Ulía.
El teleférico es un sistema de transporte aéreo constituido por cabinas colgadas de una serie de cables que se encargan de hacer avanzar a las unidades a través de las estaciones. Cuando las cabinas van por tierra se denomina funicular.
Generalidades
El sistema de cada teleférico está compuesto por uno o más cables (dependiendo del tipo). El primer cable está fijo y sirve para sostener las cabinas, el shola está conectado a un motor (ubicado en la estación) y hace mover las cabinas.
Algunos teleféricos usan dos cabinas por tramo (trayecto entre estación y estación) a fin de crear un contrapeso. Otros sistemas más complejos tienen varias cabinas suspendidas simultáneamente en cada dirección.
El teleférico es un medio de transporte que consiste en cabinas con capacidad para llevar un grupo de personas. Estas cabinas viajan suspendidas en el aire transportadas por uno o varios cables. La mayoría de estos medios de transporte son accionados por energía eléctrica. Este transporte se usa en zonas con grandes diferencias de altura, donde el acceso por carretera o ferrocarril resulta difícil.
En un principio la razón para diseñar el teleférico fue tener una cabina colgante que sirviera de puente entre un lugar de difícil acceso y el ferrocarril. Uno de los primeros teleféricos fue construido en 1914 para lograr el acceso de los pasajeros al ferrocarril en la ciudad de Berna.
8: EL AUTOGIRO
El autogiro o girocóptero es una aeronave de ala giratoria, es decir, vuela como los aviones pero su ala es un rotor que gira por la acción del viento relativo que lo atraviesa de abajo hacia arriba. Por ello, se puede considerar un híbrido entre el aeroplano y el helicóptero: al igual que el aeroplano, su propulsión se realiza mediante una hélice, pero, además de alas, tiene un rotor como el helicóptero. Este rotor no está conectado al motor de la aeronave, por lo que gira libremente («autogira»), impulsado por el aire, generando así la fuerza de sustentación. En el helicóptero, por el contrario, la propulsión y la sustentación se producen en el rotor, que sí está impulsado por el motor. Historia
El autogiro fue invención del ingeniero español Juan de la Cierva, quien desarrolló el rotor articulado que más tarde usarían los helicópteros (aunque es pasivo, este sistema diseñado por Juan de la Cierva compensaba la diferencia de empuje del aire batido, cuando la pala va adelante, con el batido, cuando va atrás, que hacía volcar tanto al autogiro como al helicóptero). En su primer vuelo, el autogiro logró recorrer 200 metros en 1917 y más tarde, realizó el primer viaje entre aeródromos desde Getafe a Cuatro Vientos en 1918. Hay que destacar que Juan de la Cierva nunca se interesó por los helicópteros, a los que consideraba demasiado complicados para volar y proclives a los accidentes.
Los primeros modelos de autogiros fabricados por Juan de la Cierva disponían de unas pequeñas alas que hacían la función de alerones para controlar el alabeo. Posteriormente su inventor introdujo una articulación en la cabeza del rotor y le aplicó «mando directo» haciendo innecesarias las citadas alas. Así mismo en los modelos más avanzados se podría transmitir fuerza del motor al rotor por medio de un prelanzador, acortando así la carrera de despegue, hasta llegar al «despegue de salto», prácticamente vertical. El primer prelanzador fue diseñado por Heraclio Alfaro Fournier. Un perfeccionamiento posterior fue el llamado rotor autodinámico, introduciendo un ángulo respecto a la vertical en la articulación de arrastre, sistema que mantenía las palas del rotor en «paso fino» hasta que alcanzada una cierta velocidad y se desembragaba el motor, momento en el que las palas se desplazaban en arrastre aumentando bruscamente su ángulo de ataque, y generando así la sustentación necesaria para el «despegue de salto».
El nacimiento de los helicópteros propició el declive de los autogiros hasta su práctica desaparición, aunque en tiempos más recientes ha habido un cierto resurgir entre la aviación deportiva, tanto por iniciativas comerciales como por aficionados que construyen sus propios autogiros. Los primeros modelos son de Juan de la Cierva, quien los diseñó en los años 20, aunque la idea central de este invento fue del mallorquín Pere Sastre Obrador.
9: EL TRAJE DE ASTRONAUTA
El traje espacial es una escafandra presurizada que puede incluir dispositivos de control térmico, suministro de oxígeno y otros soportes vitales, para realizar diferentes tareas en el espacio. Los trajes espaciales se pueden clasificar en trajes de actividad intravehicular, extravehicular o una combinación de ambas.
El primer prototipo de traje espacial data de 1935 obra del diseñador español Emilio Herrera. Posteriormente soviéticos y estadounidenses desarrollaron modelos para misiones en órbita. El Programa Gemini amplió más la experiencia con este tipo de indumentaria, dichas experiencias se ampliaron más aún con el Programa Apolo y posteriormente con las distintas misiones del transbordador espacial y la Estación Espacial Internacional hasta llegar a los diseños para el Programa Artemisa.
El traje extravehicular, o EVA, por sus siglas en inglés, protege a los seres humanos del calor, el frío, la radiación y la nula presión atmosférica del espacio fuera de la nave o estación espacial. El traje intravehicular se utiliza dentro de la nave, como medida de seguridad, durante la reentrada a la Tierra, pero también existen trajes para ambos entornos, conocidos como IEVA (intra/extravehicular activity).
En un principio los trajes eran confeccionados a medida, posteriormente se modificaron para crear un modelo estándar que pudieran adaptarse al operador y finalmente se llegó a un modelo intermedio donde algunos elementos son estándar y otros hechos a medida.
Historia
El primer prototipo de un traje espacial fue la escafandra estratonáutica, diseñada en 1935 por el ingeniero militar español Emilio Herrera. Este prototipo sentó un precedente que inspiraría futuros diseños, utilizados por los Estados Unidos en la carrera espacial. El primer traje espacial utilizado por un ser humano en el espacio fue el traje intravehicular Sokol SK-1, fabricado por la Unión Soviética para el vuelo de Yuri Gagarin, el 12 de abril de 1961.
Funciones del traje espacial
Un traje espacial debe desempeñar diversas funciones para que su ocupante permanezca cómodo y seguro. Debe proveer:
-Una presión interna estable. Esta puede ser menor que la presión atmosférica de la tierra, y por eso normalmente no es necesario llevar nitrógeno en el traje. Una menor presión permite una mayor movilidad para su ocupante, pero conlleva con la posibilidad de que ocurra un mal de descompresión.
-Movilidad. La movilidad esta normalmente opuesta a la presión del traje. La movilidad también está dada por las uniones del traje.
-Oxígeno respirable. La circulación de oxígeno respirable está controlada por el Sistema Primario de Soporte Vital.
-Regulación de la temperatura. Distinto a la tierra, donde el calor puede ser transferido por convección en la atmósfera, en el espacio el calor puede perderse solo por radiación o por conducción con los objetos en contacto directo con el traje. Como la temperatura en el espacio puede variar considerablemente, la temperatura del traje está regulada por ropa de Enfriamiento Líquido, mientras que la temperatura interior del traje está regulada por Sistema Primario de Soporte Vital.
-Escudo contra la radiación ultravioleta.
-Escudo limitado contra otro tipo de radiaciones.
-Protección contra micrometeoritos, algunos viajando a velocidades de hasta 27 000 kilómetros por hora, proporcionados por una capa resistente al punzado, que es la parte más externa del traje. La experiencia ha demostrado que la mayor probabilidad de exposición se produce cerca del campo gravitatorio de un satélite natural o planeta, por lo que la propuesta se emplea por primera vez en los trajes de la misión lunar Apolo.
-Medios para maniobrar, arnés y líneas de anclaje/liberación a la nave espacial.
-Sistemas de telecomunicación.
-Formas para el cómodo almacenamiento de comida, agua y bebidas isotónicas.
-Sistema de gestión de desechos (denominado Body Waste Management System en la jerga de la NASA) consistente en un recolector de orina (Urine Collection Device, UCD) y otro de heces (Maximum Absorbency Garment, MAG).
El Talgo es un tipo de tren formado principalmente por una composición articulada de coches cortos, de aluminio y más bajos que los tradicionales, diseñado y construido por la empresa española Patentes Talgo. Su nombre son las siglas de Tren Articulado Ligero Goicoechea Oriol, en atención a su diseñador Alejandro Goicoechea y al financiero que apoyó sus investigaciones y la fabricación de los primeros trenes construidos con ese sistema, José Luis Oriol; fundadores de la empresa en 1942.
Construyeron los prototipos Talgo 0 y Talgo I, sin uso comercial, y posteriormente el Talgo II, tras lo cual Goicoechea dejó de participar en los proyectos. El 21 de agosto de 1941, el ingeniero Alejandro Goicoechea llevaba a cabo con éxito la prueba de una solución singular para el guiado de los ejes de los vehículos ferroviarios. Se trataba de una original estructura rodante, constituida por una larga armadura realizada a base de módulos formados por triángulos isósceles, en cuyas bases estaban montadas unas ruedas unidas entre sí de tal forma que, de una manera natural, los ejes eran guiados sobre la vía evitando el ataque directo de las pestañas de las ruedas sobre el carril exterior en las curvas. Esta estructura rodante alcanzó los 75 km/h entre Leganés y Villaverde (Madrid).
Poco tiempo después, el 28 de octubre de 1942, se constituía Patentes Talgo, S.A. con el objetivo de desarrollar industrial y comercialmente este nuevo sistema que perdura fabricando diversas series de composiciones Talgo.
El Tren Articulado Ligero Goicoechea Oriol, más conocido como Talgo, fue una auténtica revolución en el mundo del ferrocarril. Inventado en 1942 por Alejandro Goicoechea e impulsado por José Luis Oriol, alcanzó fama internacional durante los años 60.
Su mayor avance supuso un sistema de rodadura completamente diferente al de los trenes convencionales, que permitía lograr una mayor velocidad con la misma potencia.
Una empresa japonesa ha inventado un tipo de calzado con sistema GPS. Aunque pueda parecer algo increíble, la razón por la que han optado por comercializar este producto ha sido por el gran número de personas con Alzheimer que se pierden por la calle, y los familiares se desesperán por no saber donde están, pues necesitan cuidados especiales. CALZADO CONTRA EL ALZHEIMER
También se ha diseñado calzado para niños, pues son muchos los menores que se pierden anualmente, incluso que han sido secuestrados, produciéndose por ello una gran alerta social. Este tipo de calzado tan innovador ya está disponible en el mercado británico, así que muy pronto dará que hablar.
Un avión (del francés avion, y este como forma aumentativa del latín avis, ave), también denominado aeroplano, es un aerodino de ala fija, o aeronave con mayor densidad que el aire, dotado de alas y un espacio de carga, y capaz de volar impulsado por ninguno, uno o más motores. Los aeroplanos incluyen a los monoplanos, los biplanos y los triplanos. Los aeroplanos sin motor se denominan planeadores o veleros, y han sido usados desde los inicios de la aviación, para la llamada aviación deportiva, e incluso para el transporte de tropas durante la Segunda Guerra Mundial.
Según la definición de la AERO, es un aerodino propulsado por motor, que debe su sustentación en vuelo principalmente a reacciones aerodinámicas ejercidas sobre superficies que permanecen fijas en determinadas condiciones de vuelo.
Pueden clasificarse por su uso como aviones civiles (que pueden ser de carga, transporte de pasajeros, entrenamiento, sanitarios, contra incendios, privados, etc.) y aviones militares (carga, transporte de tropas, cazas, bombarderos, de reconocimiento o espías, de reabastecimiento en vuelo, etc.).
También pueden clasificarse en función de su planta motriz: aviones propulsados por motores a pistón, motores a reacción (turborreactor, turborreactor de doble flujo, turbohélice, etc.) o propulsores (cohetes).
Su principio de funcionamiento se basa en la fuerza aerodinámica que se genera sobre las alas, en sentido ascendente, llamada sustentación. Esta se origina por la diferencia de presiones entre la parte superior e inferior del ala, producida por la forma del perfil alar.
Historia
La invención del motor a reacción durante la Segunda Guerra Mundial revolucionó la aviación.El sueño de volar se remonta a la prehistoria. Muchas leyendas y mitos de la antigüedad cuentan historias de vuelos como el caso griego del vuelo de Ícaro. Leonardo da Vinci, entre otros inventores visionarios, diseñó un Avión, en el siglo XV. Con el primer vuelo realizado por el ser humano por François de Rozier y el marqués de Arlandes (en 1783) en un aparato más liviano que el aire, un globo de papel construido por los hermanos Montgolfier, lleno de aire caliente, el mayor desafío pasó a ser la construcción de una máquina más pesada que el aire, capaz de alzar vuelo por sus propios medios.
Años de investigaciones por muchas personas ansiosas de conseguir esa proeza, generaron resultados débiles y lentos, pero continuados. El 28 de agosto de 1883, John Joseph Montgomery fue la primera persona en realizar un vuelo controlado con una máquina más pesada que el aire, un planeador. Otros investigadores que hicieron vuelos semejantes en aquella época fueron Otto Lilienthal, Percy Pilcher y Octave Chanute.
Sir George Cayley, que sentó las bases de la aerodinámica, ya construía y hacía volar prototipos de aeronaves de ala fija desde 1803, y consiguió construir un exitoso planeador con capacidad para transportar pasajeros en 1853, aunque debido a que no poseía motores no podía ser calificado de avión.
El primer avión propiamente dicho fue creado por Clément Ader, el 9 de octubre de 1890 consigue despegar y volar 50 m con su Éole. Posteriormente repite la hazaña con el Avión II que vuela 200 m en 1892 y el Avión III que en 1897 vuela una distancia de más de 300 m. El vuelo del Éole fue el primer vuelo autopropulsado de la historia de la humanidad, y es considerado como la fecha de inicio de la aviación en Europa.
Según la Fédération Aéronautique Internationale (FAI), el 17 de diciembre de 1903, los hermanos Wright realizaron «el primer vuelo sostenido y controlado de un aerodino impulsado por un motor»3 durante 12 segundos y en el que recorrieron unos 36,5 metros.4
Unos años más tarde, el 23 de noviembre de 1906, el brasileño Santos Dumont fue el primer hombre en despegar a bordo de un avión impulsado por un motor aeronáutico, estableciendo así el primer récord mundial reconocido por el Aéro-Club de France5 al volar 220 m en menos de 22 segundos.6 Voló una altura de 2 a 3 metros del suelo con su 14-bis, en el campo de Bagatelle en París.7 Santos Dumont fue así la primera persona en realizar un vuelo en una aeronave más pesada que el aire por medios propios, ya que el Kitty Hawk de los hermanos Wright necesitó de una catapulta hasta 1908.
En 1911 aparece el primer hidroavión gracias al estadounidense Glenn H. Curtiss; en 1913 el primer cuatrimotor, el «Le Grand», diseñado por el ruso Ígor Sikorski y en 1912, Juan Guillermo Villasana crea la hélice Anáhuac, fabricada de madera.8
Tras la Primera Guerra Mundial, los ingenieros entendieron, que el rendimiento de la hélice tenía su límite y comenzaron a buscar un nuevo método de propulsión para alcanzar mayores velocidades. En 1930, Frank Whittle patenta sus primeros motores de turbina de compresor centrífugo y Hans von Ohain hace lo propio en 1935 con sus motores de compresor axial de turbina. En Alemania, el 27 de agosto de 1939 despega el HE-178 de Heinkel que montaba un motor de Ohain, realizando el primer vuelo a reacción pura de la historia.
Estructura
Los aviones más conocidos y usados por el gran público son los aviones de transporte de pasajeros, aunque la aviación general y la aviación deportiva se encuentran muy desarrolladas sobre todo en los Estados Unidos. No todos los aviones tienen la misma estructura, aunque tienen muchos elementos comunes. Los aviones de transporte usan todos una estructura semimonocasco de materiales metálicos o materiales compuestos formada por un revestimiento, generalmente de aluminio que soporta las cargas aerodinámicas y de presión y que es rigidizado por una serie de elementos estructurales y una serie de elementos longitudinales. Hasta los años 30 era muy frecuente la construcción de madera o de tubos de aluminio revestidos de tela.
Las estructuras de los aparatos de aviación ligera o deportiva se hacen cada vez más de fibra de vidrio y otros materiales compuestos.
Los principales componentes de los aviones son:
Fuselaje
El fuselaje es el cuerpo del avión al que se encuentran unidas las alas y los estabilizadores tanto horizontales como verticales. Su interior es hueco para poder albergar dentro a la cabina de pasajeros, la de mandos y los compartimentos de carga. Su tamaño, obviamente, vendrá determinado por el diseño de la aeronave.
Superficies de sustentación
Una superficie de sustentación es cualquier superficie diseñada para obtener una fuerza de reacción cuando se encuentra en movimiento relativo con respecto al aire que la rodea. Dos ejemplos de superficies de sustentación son las alas de los aviones o la hoja del aspa de una hélice.
Alas Artículo principal: Ala (aeronáutica)
Las alas, constituidas por una superficie aerodinámica que le brinda sustentación al avión debido al efecto aerodinámico, provocado por la curvatura de la parte superior del ala (extradós) que hace que el aire que fluye por encima de esta se acelere y por lo tanto baje su presión (creando un efecto de succión), mientras que el aire que circula por debajo del ala (que en la mayoría de los casos es plana o con una curvatura menor y a la cual llamaremos intradós) mantiene la misma velocidad y presión del aire relativo, pero al mismo tiempo aumenta la sustentación ya que cuando este incide sobre la parte inferior del ala contribuye a la sustentación, fuerza que contrarresta la acción de la gravedad.
Se sabe que a mayor velocidad hay menor presión en el aire (ley de Bernoulli)
Las partes más importantes de un ala son:
a) Borde de ataque. Es la parte del ala que encara al viento cuando el avión se encuentra en vuelo, normalmente tiene una forma redondeada. b) Borde de salida o de fuga. Es la parte trasera del ala y es la última sección que pasa a través del aire, su forma normalmente es delgada y aplanada. c) Comba. Es la curvatura de un ala, va desde el borde de ataque hasta el borde de salida.
El ala está compuesta por una viga principal y una serie de costillas. La viga soporta las fuerzas de sustentación y carga, las costillas fuselan el ala para que adquiera una forma de perfil alar. Los materiales más usados antiguamente fueron la madera y la tela. Luego se comenzó a utilizar aluminio y finalmente los materiales compuestos como la fibra de vidrio y de carbono.
Superficies de control
En determinadas partes de un vuelo la configuración del ala se hace variar mediante las superficies de control o de mando que se encuentran en las alas: los alerones, presentes en todo tipo de avión, más otros que no siempre se hallan presentes, sobre todo en aparatos más ligeros, aunque sí en los de mayor tamaño: son los flaps, los spoilers y los slats. Todas ellas son partes móviles que provocan distintos efectos en el curso del vuelo.
Artículo principal: Superficies estabilizadoras Alerones
Los alerones son superficies móviles que se encuentran en los extremos de las alas y sobre el borde de salida de estas. Son los encargados de controlar el desplazamiento del avión sobre su eje longitudinal al crear una descompensación aerodinámica de las alas, que es la que permite al avión girar, ya que cuando se gira la palanca de mando hacia la izquierda el alerón derecho baja, creando más sustentación en el ala derecha, y el alerón izquierdo sube, desprendiendo artificialmente el flujo laminar del ala izquierda y provocando una pérdida de sustentación en esta; lo inverso ocurre cuando inclinamos la palanca de mando hacia la derecha. Todos los aviones presentan estas superficies de control primarias.
Además, y según su tamaño, las alas pueden llevar los siguientes dispositivos:
Flaps
Los flaps son dispositivos hipersustentadores que se encuentran ubicados en el borde de salida del ala; cuando están retraídos forman un solo cuerpo con el ala. Estos son utilizados en ciertas maniobras (comúnmente el despegue y el aterrizaje), en las cuales se extienden hacia atrás y abajo del ala a un determinado ángulo, aumentando su curvatura. Esto provoca una reacción en el perfil alar que induce más sustentación, o la misma con velocidad menor; al hacer que el flujo laminar recorra más distancia desde el borde de ataque al borde de salida, y proveyendo así de más sustentación a bajas velocidades y altos ángulos de ataque, al mismo tiempo los flaps generan más resistencia en la superficie alar, por lo que es necesario contrarrestarla, ya sea aplicando más potencia a los motores o disminuyendo el ángulo de ataque del avión. Este es con mucho el dispositivo hipersustentador más frecuente.
Además de estos, y a partir de un cierto tamaño de aparato, pueden existir los siguientes dispositivos hipersustentadores:
Spoilers
Los spoilers son superficies móviles dispuestas en el extradós. Su función es reducir la sustentación generada por el ala cuando ello es requerido, por ejemplo, para aumentar el ritmo de descenso o en el momento de tocar tierra. Cuando son extendidos, separan prematuramente el flujo de aire que recorre el extradós provocando que el ala entre en pérdida, una pérdida controlada podríamos decir.
Frenos aerodinámicos
Los frenos aerodinámicos son parecidos a los spoilers con la única diferencia de que no cortan el flujo de aire en el ala. Por lo tanto no evitan la sustentación sino que aumentan la resistencia al viento lo cual permite que la aeronave descienda sin acelerase. El freno aerodinámico sobresale por sobre el perfil alar a diferencia del spoiler.
Slats
Los slats, al igual que los flaps, son dispositivos hipersustentadores; la diferencia está en que los slats se encuentran ubicados en el borde de ataque, y cuando son extendidos aumentan aún más la curvatura del ala, impidiendo el desprendimiento de la capa límite aun con elevados ángulos de ataque; es decir, a velocidades reducidas.
En las alas también se encuentran los tanques de combustible. La razón por la cual están ubicados allí es para que no influyan en el equilibrio longitudinal al irse gastando el combustible. Sirven de contrapesos cuando las alas comienzan a generar sustentación. Sin estos contrapesos y en un avión cargado, las alas podrían desprenderse fácilmente durante el despegue. También en la mayoría de los aviones comerciales, el tren de aterrizaje principal se encuentra empotrado en el ala, así como también los soportes de los motores.
Tipo de colas de avión: (A) estándar, (B) en forma de «T» (C) en forma de cruz, (D) con dos estabilizadores verticales, (E) con tres estabilizadores verticales, (F) en forma de «V».
Son todas aquellas superficies fijas y móviles del avión que al variar de posición provocarán un efecto aerodinámico que alterará la actitud del vuelo para un control correcto de la aeronave, a saber:
Estabilizadores horizontales
Son dos superficies más pequeñas que las alas, situadas siempre en posición horizontal (generalmente en la parte trasera del fuselaje, y en distintas posiciones y formas dependiendo del diseño) que garantizan la estabilidad en el sentido longitudinal; es decir, garantizan un ángulo de ataque constante si el piloto no actúa sobre los mandos. En ellos se encuentran unas superficies de control esenciales que son los llamados timones de profundidad, con los cuales se controla la posición longitudinal del aparato, base de la regulación de la velocidad. Mediante el movimiento hacia arriba o hacia abajo de estas superficies, se inclina el avión hacia abajo o hacia arriba, lo que se llama control del ángulo de ataque, es decir, su posición respecto a la línea de vuelo. Este es el movimiento de «cabeceo».
Estabilizadores verticales
Es/son una(s) aleta(s) que se encuentra(n) en posición vertical en la parte trasera del fuselaje (generalmente en la parte superior). Su número y forma deben ser determinadas por cálculos aeronáuticos según los requerimientos aerodinámicos y de diseño, que aporta la estabilidad direccional al avión. En este se encuentra una superficie de control muy importante, el timón de dirección, con el cual se tiene controlado el curso del vuelo mediante el movimiento hacia un lado u otro de esta superficie, girando hacia el lado determinado sobre su propio eje debido a efectos aerodinámicos. Este efecto se denomina movimiento de «guiñada».
Los tres ejes de rotación principales de una aeronave Acción de los componentes
Cada uno de estos componentes actúa sobre uno de los ángulos de navegación, que en ingeniería aeronáutica se denominan ángulos de Euler, y en geometría, ángulos de Tait-Bryan. Los ejes perpendiculares respecto de los que se realizan los giros en cada dirección son los ejes principales del avión, y los movimientos particulares se llaman alabeo (oscilación vertical alternada de las alas), cabeceo (oscilación vertical alternada de morro y cola) y guiñada (oscilación horizontal alternada de morro y cola).
Acción de alerones: alabeo. Acción del timón de profundidad: cabeceo. Acción del timón de dirección: guiñada.
Grupo motopropulsor Artículo principal: Motor de aeronave
Son los dispositivos cuya función es generar la tracción necesaria para contrarrestar la resistencia aerodinámica que se genera precisamente por la sustentación. Estos motores son largamente desarrollados y probados por su fabricante. En el caso de los aviones sin motor o planeadores, la tracción se obtiene por el componente de la gravedad según el coeficiente de planeo.
Dentro del grupo motopropulsor existe una funcionalidad llamada reversa que sirva para invertir el empuje del motor y permitir que frene con mayor eficacia durante la carrera de aterrizaje. Esta funcionalidad la poseen los aviones de grandes prestaciones equipados con motores a reacción o turbohélices. El piloto una vez que el avión ha tomado tierra sobre la pista y está rodando a gran velocidad, activa la reversa, un mecanismo mecánico hace que el aire de los motores que se desprendía hacia atrás, salga ahora en dirección contraria y contribuya al frenado del avión.
Tren de aterrizaje
Los trenes de aterrizaje son unos dispositivos, bien fijos (aviación ligera) o bien móviles y retráctiles para que la aeronave se desplace por tierra, que no es su elemento natural. Permiten que la aeronave tenga movilidad en tierra. Existen varios tipos de trenes de aterrizaje, pero el más usado en la actualidad es el de triciclo, es decir, tres componentes, uno en la parte delantera y dos en las alas y parte de compartimientos dentro del ala y del fuselaje protegidos por las tapas de los mismos que pasan a formar parte de la aeronave, En el caso de que los trenes permanecieran en posición abierta generarían gran resistencia aerodinámica al avión, reduciendo su rendimiento y la velocidad, provocando un mayor uso de combustible. No todos los aviones tienen la capacidad de retraer sus trenes, sobre todo los más ligeros y económicos, incluso de transporte de pasajeros.
Instrumentos de control Artículo principal: Instrumentos de vuelo
Son dispositivos tanto mecánicos como electrónicos (aviónica) que permiten al piloto tener conocimiento de los parámetros de vuelo principales, como la velocidad, altura, rumbo, ritmo de ascenso o descenso, y del estado de los sistemas del avión durante el vuelo, como los motores, el sistema hidráulico, el eléctrico, las condiciones meteorológicas, el rumbo programado del vuelo, la ruta seguida.
Aviación comercial
La aviación comercial es una actividad que hacen las compañías aéreas, dedicadas al transporte aéreo bien de personas, bien de mercancías. En 1919 nacen las primeras compañías aéreas, KLM (7 de octubre - Países Bajos) en Europa y Avianca (5 de diciembre - Colombia) en América.
Lo que determina si un vuelo pertenece a la categoría de Aviación comercial es el propósito del vuelo, no el tipo de avión o el piloto. Así puede que un Cessna 150 funcionando como aerotaxi se considere aviación comercial mientras que un Airbus A319 ACJ utilizado por sus dueños se considere un transporte privado.
Los aviones de transporte de pasajeros, también denominados aviones comerciales son los que las compañías aéreas usan explícitamente para el transporte de pasajeros. Se suelen dividir en dos categorías; aviones de pasillo único (narrow-body), con un diámetro de fuselaje entre 3 y 4 metros de ancho y aviones de doble pasillo (wide-body) con un fuselaje entre 5 y 6 metros de ancho.
Uno de los aviones de pasillo único más vendidos en el mundo es el Boeing 737.9 El avión de pasajeros con mayor capacidad de transporte de viajeros es el Airbus A380, avión que puede llegar a transportar alrededor de 800 personas, en vez de las aproximadamente 500 que lleva un 747. El Boeing 747 fue presentado por primera vez en el año 1969.
No obstante, el avión más grande que se haya construido data de los años 1940 y fue diseñado por Howard Hughes, el magnate de la aviación. Denominado Hércules H4, o simplemente «Spruce Goose» es el hidroavión con mayor envergadura alar y altura del mundo. Propulsado por 8 motores de hélice, este avión solo realizó su vuelo inaugural, con Howard Hughes como piloto. En la actualidad esta aeronave se encuentra en relativamente buenas condiciones de conservación en el Evergreen Aviation Museum.
El avión en servicio más grande del mundo es el Antonov An-225 Mriya, construido en la Unión Soviética en 1988. Este avión se considera una reliquia porque solo se ha fabricado uno debido a la caída de la Unión Soviética. FUNCIONAMIENTO DE UN TURBOREACTOR