sábado, 5 de enero de 2019

Viviendo sin tocar el suelo durante diez años: la vida del charrán sombrío

Viviendo sin tocar el suelo durante diez años: la vida del charrán sombrío

El charrán sombrío (Onychoprion fuscatus) tiene el mérito de ser el pájaro que se mantiene más tiempo en el aire, de forma ininterrumpida.

Tras abandonar su lugar de anidación siendo todavía un ave joven, el charrán sombrío permanece en el aire de 3 a 10 años mientras se desarrolla, tiempo en el que se posa en el agua de vez en cuando antes de volver a tierra firme para reproducirse como adulto.

El charrán sombrío cría en islas a lo largo de toda la zona ecuatorial. En invierno migra internándose principalmente en los océanos tropicales. Se reproducen en colonias en las islas rocosas o de coral. Anida en el suelo en hoyos y ponen de uno a tres huevos. Se alimenta de peces que capturan en la superficie del mar.

Duermen mientras vuelan, pues sus dos mitades del cerebro lo hacen por turnos. Y a la hora de comer, se alimentan de peces, ya sea zambulléndose en el mar o cazándolos en la superficie.

En la Isla de Pascua, esta especie y el charrán de anteojos (O. lunatus) se conocen colectivamente como manutara. La manutara jugó un papel importante en el ritual de tangata manu ("hombre pájaro"): cualquier hopu (campeón) que recuperara el primer huevo de manutara del islote Motu Nui se convertiría en el manu tangata de ese año, así su clan recibiría un acceso privilegiado a los recursos, especialmente los huevos de aves marinas.

a

Altos vuelos

A pesar de que el charrán sombrío ostenta el récord, hay muchas otras aves que viven largas temporadas en al aire, sin tocar o apenas sin tocar tierra firme.

Otro charrán, por ejemplo, el charrán del ártico, migra más lejos que cualquier otra especie de ave. Cría al norte del círculo polar ártico, vuela al sur de la Antártida para el invierno septentrional y regresa al norte: un viaje de unos 80.467 km.

Laysan Albatross 848343 960 720

Algunos albatros dan la vuelta al mundo en menos de dos meses y que pueden planear durante 6 días sin batir las alas. Esto es posible porque las enormes alas del albatros errante (3,35 metros de envergadura) necesitan muy poca energía muscular para mantenerse extendidas debido al “bloqueo de hombro”, un tendón especial que las mantiene en su sitio, como explicamos hace un tiempo.

También te recomendamos

El único pájaro venenoso del mundo

¿Cómo impedir que los pájaros se acerquen al motor de un avión?

Fotografía de autor, por tus fotos te conoceremos

-
La noticia Viviendo sin tocar el suelo durante diez años: la vida del charrán sombrío fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Esta empresa ya ha hecho más de mil repartos con vehículos autónomos casi sin supervisión humana

Esta empresa ya ha hecho más de mil repartos con vehículos autónomos casi sin supervisión humana

Kroger es una cadena de supermercados de Estados Unidos. Tiene su sede en Cincinnati, Ohio.​ La cadena tiene 2.800 tiendas en 35 estados y atiende a cerca de 9 millones de clientes todos los días. En 2009, Kroger era número 22 en las empresas de Fortune 500.​ Y ahora también ha comenzado a realizar algunas entregas a domicilio con vehículos autónomos casi sin supervisión humana.

Ahira está probando vehículos de reparto autónomos en Scottsdale, Arizona, sin supervisión humana.

Nauro

Kroger anunció su asociación con la compañía de robótica Nuro a principios de este año. Desde agosto, se han realizado casi 1 000 entregas de prueba con alguna asistencia humana.

Pero el R1 es el primer miembro completamente autónomo del servicio de entrega de Kroger, y está empezando a funcionar ahora. Los clientes pagarán 5,95 dólares para solicitar una visita de la furgoneta de entrega autónoma. Los usuarios deberán salir para encontrarse con el vehículo y descargarlo cuando llegue. Esta prueba piloto con una tienda de Arizona, Fry's Food Stores, en el 7770 East McDowell Road, en Scottsdale, permite evaluar las entregas con vehículo autónomo sin asistencia humana.

Nuro construyó el “pod” de entrega R1 desde cero, teniendo como meta de crear “el mejor vehículo y servicio para el transporte de mercancías”. Los vehículos autónomos de Nuro cuentan con los elementos tecnológicos típicos que podríamos encontrar en otros coches similares: lidar, radares y cámara. En este caso, será el propio software de Nuro el que ayude al vehículo autónomo a desplazarse. Eso sí, detrás hay operadores humanos que pueden llegar a tomar el control del R1 en caso de que surja algún inconveniente.

También te recomendamos

Este es el primer coche eléctrico chileno y se llama Sôki

Fotografía de autor, por tus fotos te conoceremos

Imprimiendo en 3D la carrocería de un coche

-
La noticia Esta empresa ya ha hecho más de mil repartos con vehículos autónomos casi sin supervisión humana fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Ya podemos leer palabras directamente de nuestro cerebro gracias a la IA

Ya podemos leer palabras directamente de nuestro cerebro gracias a la IA

Electrodos colocados directamente en el cerebro registraban la actividad neuronal, mientras que los pacientes de cirugía cerebral escuchaban palabras o leían las palabras en voz alta. A continuación, los investigadores trataron de averiguar qué escuchaban o decían los pacientes comprobando estos registro de neuronas activadas.

Tres estudios en lo que se ha hecho esto ha permitido a los investigadores pudieron convertir la actividad eléctrica del cerebro en archivos de sonido más o menos inteligibles.

Leer el cerebro

El primer estudio al respecto, publicado en bioRxiv el 10 de octubre de 2018, describe un experimento en el que los investigadores reprodujeron grabaciones de personas hablando a pacientes con epilepsia que estaban en medio de una cirugía cerebral. Las grabaciones neuronales tomadas en el experimento tenían que ser muy detalladas para ser interpretadas.

Mientras los pacientes escuchaban los archivos de sonido, los investigadores registraron neuronas que se activaban en las partes del cerebro de los pacientes que procesaban el sonido.

Para traducir estas activaciones de neuronas en palabras, se probaron varios métodos diferentes, determinando que el "deep learning", un conjunto de algoritmos de clase aprendizaje automático de inteligencia artificial era el método más eficaz.

Al pasar los resultados a través de un vocoder, que sintetiza voces humanas, para un grupo de 11 oyentes, esos individuos pudieron interpretar correctamente las palabras el 75 por ciento de las veces. Sacándolas directamente del cerebro de los sujetos analizados.

Podéis escuchar el audio de este experimento aquí.

Web 3706562 960 720

El otro estudio, publicado el 27 de noviembre de 2018, se basaron en grabaciones neuronales de personas sometidas a cirugía para extirpar tumores cerebrales. Mientras los pacientes leían en voz alta las palabras de una sílaba, los investigadores registraron tanto los sonidos que salían de la boca de los participantes como las neuronas que se activaban en las regiones del cerebro que producen el habla.

A continuación, enseñaron una red neuronal artificial para convertir las grabaciones neuronales en audio, mostrando que los resultados eran al menos razonablemente inteligibles y similares a las grabaciones hechas por los micrófonos. El audio de este experimento está aquí.

El tercer estudio, publicado el 9 de agosto de 2018, se basó en registrar la parte del cerebro que convierte las palabras específicas que una persona decide verbalizar en movimientos musculares. Si bien no hay ninguna grabación de este experimento disponible online, los investigadores informaron de que pudieron reconstruir oraciones completas (también registradas durante la cirugía cerebral en pacientes con epilepsia) y que las personas que escucharon las oraciones pudieron interpretarlas correctamente el 83 por ciento del tiempo. El método de este experimento se basó en identificar los patrones involucrados en la producción de sílabas individuales, en lugar de palabras completas.

El objetivo de todos estos experimentos es hacer posible que un día las personas que han perdido la capacidad de hablar (debido a esclerosis lateral amiotrófica o afecciones similares) hablen a través de una interfaz de ordenador. Con todo, si bien los investigadores creen que es algo posible en un futuro, asumen que de momento interpretación de los patrones neuronales de una persona que solo imagina el habla es más complicada que la interpretación de los patrones de alguien que escucha o produce el habla.

También te recomendamos

Aquí puedes escuchar 200.000 grabaciones de aves silvestres de todo el mundo

Los algoritmos de aprendizaje automático han superado a los humanos al reconocer el habla

Fotografía de autor, por tus fotos te conoceremos

-
La noticia Ya podemos leer palabras directamente de nuestro cerebro gracias a la IA fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia