lunes, 11 de diciembre de 2017

Peppa Pig alienta el uso inapropiado del servicio médico de atención primaria

La serie de televisión para niños Peppa Pig puede estar contribuyendo a expectativas poco realistas de la atención médica primaria y fomentar el uso inapropiado de este servicio, según señala un artículo publicado en el especial navideño de la revista BMJ.



Fuente: Noticias

Un TAC realizado a cuatro momias egipcias identifica el caso más antiguo de cáncer de mama

Cuatro momias descubiertas tras unas excavaciones realizadas en la ciudad egipcia de Asuán han sido analizadas mediante la técnica de tomografía axial computarizada o TAC. Los resultados han sacado a la luz los dos casos más antiguos de cáncer de mama y mieloma múltiple, un tipo de cáncer de la médula ósea, que se conocen. También han datado la fecha del fallecimiento: la mujer con cáncer de mama habría fallecido en torno a 2000 a.C  y el hombre con mieloma múltiple sobre el 1800 a.C. 



Fuente: Noticias

Las células tantean su entorno para explorar el nanomundo

El proceso mediante el cual las células son capaces de percibir lo que hay a su alrededor está regulado por la detección de fuerzas. Lo hacen como quien reconoce la cara de alguien a oscuras palpándola con una mano.  Esta es la conclusión de un estudio liderado por el Instituto de Bioingeniería de Cataluña, que contradice la idea de que son capaces de medir distancias.



Fuente: Noticias

domingo, 10 de diciembre de 2017

Un grupo de científicos logra "inyectar" información en el cerebro de un mono

Cbls5bmel0z8rxlxbbfh Los neurocientíficos de la Universidad de Rochester dicen que han logrado introducir información directamente en la corteza premotora de los monos, al estilo la película Matrix ("ya sé Kung Fu").

Los investigadores publicaron los resultados del experimento el jueves en la revista Neuron.

Inyectando información

Cuando conduces tu coche hacia una intersección, la visión de la luz te hará pisar el freno. Esta acción sucede gracias a una cadena de eventos dentro de tu cabeza. Tus ojos transmiten señales a los centros visuales en la parte posterior de tu cerebro. Después de que esas señales se procesan, viajan por un camino a otra región, la corteza premotora, donde el cerebro planea los movimientos.

Ahora, imagina que tienes un dispositivo implantado en tu cerebro que podría atajar la ruta e "inyectar" información directamente en tu corteza premotora.

Aunque la investigación mencionada es preliminar, llevada a cabo en solo dos monos, los investigadores especularon que una mayor investigación podría conducir a implantes cerebrales para personas con accidentes cerebrovasculares. Según ha explicado Kevin A. Mazurek, coautor del estudio:

Se podría evitar las áreas dañadas y proporcionar estimulación a la corteza premotora. Esa podría ser una forma de unir partes del cerebro que ya no pueden comunicarse.

Jxdf9jseimpvrsxralsq

Para estudiar la corteza premotora, entrenaron a dos monos rhesus para jugar un juego. Los monos se sentaron frente a un panel equipado con un botón, una perilla en forma de esfera, una perilla cilíndrica y un mango en forma de T. Cada objeto estaba rodeado por luces LED. Si las luces alrededor de un objeto se encendían, los monos tenían que tenderle la mano para obtener una recompensa, en este caso, un refrescante chorro de agua.

Cada objeto requería una acción particular. Si el botón brillaba, los monos tenían que empujarlo. Si la esfera brillaba, tenían que girarla. Si el asa o el cilindro con forma de T se iluminaba, tenían que tirar de él. Después de que los monos aprendieron a jugar, los científicos colocaron 16 electrodos en el cerebro de cada mono, en la corteza premotora. Cada vez que se encendía un anillo de luces, los electrodos transmitían una ráfaga de electricidad débil y breve. Los patrones variaron según el objeto que los investigadores querían que los monos manipularan.

A medida que los monos jugaban más rondas del juego, los anillos de luz se atenuaron. Al principio, el oscurecimiento hizo que los monos cometieran errores. Pero luego su desempeño mejoró. Eventualmente, las luces se apagaron por completo, sin embargo, los monos solo pudieron usar las señales de los electrodos en sus cerebros para elegir el objeto correcto y manipularlo para la recompensa. Y lo hicieron tan bien como con las luces.

Esto sugiere que las regiones sensoriales del cerebro, que procesan la información del medio ambiente, pueden evitarse por completo. El cerebro puede idear una respuesta al recibir información directamente, a través de electrodos.

También te recomendamos

Un violín para combatir trastornos psicológicos en niños

Los capuchinos también pueden ser rencorosos

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

-
La noticia Un grupo de científicos logra "inyectar" información en el cerebro de un mono fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

¿Realmente estamos viviendo una revolución en la IA o no es para tanto?

Artificial Intelligence 2983958 960 720 Casi cada día desayunamos con alguna noticia sobre Inteligencia Artificial que, indefectiblemente, nos evoca a Skynet. Una de las últimas es que, en solo cuatro horas, la IA de Google, AlphaZero, ha logrado dominar todo el conocimiento ajedrecístico por ella misma.

Realmente la IA ya está empezando a dominar muchos campos del conocimiento de forma más solvente que el ser humano, pero ¿eso significa que este crecimiento en habilidades continuará adelante a este ritmo? Y, después de todo, ¿es tan espectacular lo que estamos viendo hasta ahora?

Inteligencia relativa

Parece que la IA está protagonizando una revolución de la que todavía no somos capaces de predecir sus efectos. Cada día se escriben artículos al respecto, los popes de la tecnología advierten que debemos tener cuidado y no continuar adelante, se escriben docenas de libros al años (yo mismo he publicado recientemente uno).

Gran parte de esta revolución la está protagonizando el Deep Learning (aprendizaje profundo), sobre todo en el campo de la traducción, el reconocimiento de voz, el reconocimiento de imágenes y los juegos.

Pero lo peculiar del aprendizaje profundo es la edad de las ideas clave sobre las que se sustenta. En un artículo innovador de Geoffrey Hinton, con sus colegas David Rumelhart y Ronald Williams, publicado en 1986, se presentaba la técnica backpropagation, o retropropagación para abreviar. Es decir, que quizá no estamos tanto en el inicio de una revolución sino en sus últimos coletazos, la que inició el backprop.

Artificial Intelligence 2228610 960 720

Retropropagación

En la década de 1980, Hinton era, como lo es ahora, un experto en redes neuronales, un modelo muy simplificado de la red de neuronas y sinapsis en nuestros cerebros. Sin embargo, en ese momento se había decidido firmemente que las redes neuronales eran un callejón sin salida en la investigación de IA.

Aunque la red neuronal más antigua, el Perceptron, que comenzó a desarrollarse en la década de 1950, había sido aclamada como un primer paso hacia la inteligencia de una máquina a nivel humano, un libro de 1969 del MIT Marvin Minsky y Seymour Papert, llamado Perceptrons, demostró matemáticamente que las redes podían realizar solo las funciones más básicas. Estas redes tenían solo dos capas de neuronas, una capa de entrada y una capa de salida. Las redes con más capas entre las neuronas de entrada y salida podrían, en teoría, resolver una gran variedad de problemas, pero nadie sabía cómo entrenarlas, y en la práctica eran inútiles.

Excepto por unos pocos reticentes como Hinton, Perceptrons hizo que la mayoría de la gente renunciara por completo a las redes neuronales.

El avance de Hinton, en 1986, fue demostrar que la retropropagación podría formar una red neural profunda, es decir, una con más de dos o tres capas. Pero pasaron otros 26 años antes de que aumentara el poder computacional para hacer efectivo el descubrimiento. Un artículo de 2012 de Hinton demostró que las redes neuronales profundas, entrenadas usando la retropropagación, superaban a los sistemas más avanzados en reconocimiento de imágenes. El "aprendizaje profundo" despegaba.

Capaoculta

Una red neuronal generalmente se dibuja con capas apiladas una encima de la otra. Las capas contienen neuronas artificiales, que son pequeñas unidades computacionales tontas que se excitan y transmiten esa excitación a las otras neuronas a las que están conectadas. La excitación de una neurona está representada por un número, como 0.13 o 32.39, que señala lo emocionada que está. Y hay otro número crucial, en cada una de las conexiones entre dos neuronas, que determina cuánta excitación debe pasarse de una a la otra. Cuando el número es más alto, significa que la conexión es más fuerte, por lo que una mayor parte de la excitación fluye hacia la otra neurona.

En el reconocimiento de imágenes por parte de una IA, la capa superior de la red neuronal, la capa de salida, tiene solo dos neuronas, una que representa "árbol" y la otra que representa "no árbol". La idea es enseñar a la red neuronal a excitar solo la primera capa de esas neuronas si hay un árbol. La propagación inversa, o retropropagación, la técnica sobre la que Hinton ha construido su carrera, es el método para hacerlo.

¿Cómo funciona?

La retropropagación es bastante imple, aunque funciona mejor con grandes cantidades de datos. En este caso, los datos toman la forma de millones de imágenes, algunas con árboles y otras sin ellos; el truco es que estas imágenes están etiquetadas como si tuvieran árboles. Cuando crea su red neuronal por primera vez, las conexiones entre las neuronas pueden tener pesos aleatorios: números aleatorios que indican cuánta excitación transmitir a lo largo de cada conexión. Es como si todavía no se hubieran sintonizado las sinapsis del cerebro. El objetivo de la retropopagación es cambiar esos pesos para que la red funcione: de modo que cuando pasas la imagen de un árbol a la capa más baja, la neurona de "árbol" de la capa superior termina por excitarse.

Backprop, pues, es un procedimiento para re-ajustar la fuerza de cada conexión en la red para corregir el error de un ejemplo de entrenamiento dado.

La forma en que funciona, paso a paso, es que comienzas con las dos últimas neuronas, y descubres cuán equivocadas estaban: ¿cuánta diferencia hay entre lo que los números de excitación deberían haber sido y lo que son? A continuación, se echa un vistazo a cada una de las conexiones que conducen a esas neuronas, las que se encuentran en la siguiente capa inferior, y se descubre su contribución al error. Se continúa haciendo esto hasta que llegas al primer conjunto de conexiones, en la parte inferior de la red. En ese punto, se sabe cuánto contribuyó cada conexión individual al error general y, finalmente, se cambia cada una de las ponderaciones en la dirección que mejor se reduzca el error en general. La técnica se llama "retropropagación" porque está "propagando" errores hacia atrás (o hacia abajo) a través de la red, comenzando desde la salida.

Lo sorprendente es que cuando haces esto con millones o miles de millones de imágenes, la red comienza a ser muy competente a la hora de señalar si en una imagen aparece un árbol o no.

Y lo que es aún más asombroso es que las capas individuales de estas redes de reconocimiento de imágenes comienzan a ser capaces de "ver" imágenes de la misma manera que lo hace nuestro propio sistema visual. Es decir, la primera capa podría terminar detectando bordes, en el sentido de que sus neuronas se excitan cuando hay bordes y no se excitan cuando no las hay; la capa encima de esa podría ser capaz de detectar conjuntos de bordes, como esquinas; la capa encima de esa puede comenzar a ver formas, y así sucesivamente.

La red se organiza, en otras palabras, en capas jerárquicas sin haber sido programada explícitamente de esa manera.

Processor 2217771 960 720

Sorprendentemente tonto

A pesar de sus asombrosos resultados, pues, estos sistemas de aprendizaje profundo son bastante tontos. Las redes neuronales son simplemente identificadores de patrones y, por tanto, se pueden engañar fácilmente. Una red neuronal profunda que reconoce imágenes puede bloquearse por completo al cambiar un solo píxel o agregar un ruido visual imperceptible para un ser humano.

El aprendizaje profundo de alguna manera imita lo que sucede en el cerebro humano, pero solo de una manera superficial, lo que quizás explica por qué su inteligencia a veces puede parecer tan superficial. La razón de ello es que no podemos imitar el cerebro humano en toda su complejidad porque ni siquiera sabemos cómo funciona.

De hecho, el backprop no fue descubierto tras sondear profundamente en el cerebro, descifrando el pensamiento en sí mismo; surgió a partir de modelos de cómo los animales aprenden por ensayo y error en antiguos experimentos de acondicionamiento clásico.

Hemos mejorado la IA de forma increíble, pero en función de pequeños retoques de ingeniería. Se ignora si mejorando esa ingeniería se alcanzará algo parecido a la solvencia de un cerebro humano. Y si hemos exprimido ya todo lo que da de sí la retropropagación, estaríamos en las postrimerías de una pequeña revolución en la IA.

¿Alguna vez la IA podrá aprender con tanta fluidez que un cerebro humano diferentes tipos de patrones conectados entre sí en función de distintos contextos? En definitiva, ¿una IA podría tener algo parecido a un modelo del mundo? No lo sabemos. Ni siquiera sabemos con seguridad si estamos siguiendo el camino correcto para conseguirlo. Eso no significa, naturalmente, que no acabemos por lograrlo, o que, al menos, consigamos que la IA realice muchos trabajos puntuales de forma mucho más eficaz que el ser humano.

También te recomendamos

La computadora que aprende de sus propios errores

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

Los humanos ya no son los únicos que componen música: el compositor artificial

-
La noticia ¿Realmente estamos viviendo una revolución en la IA o no es para tanto? fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Esta niña de 12 años ganó el premio a la mejor científica joven de Estados Unidos

 98392268 A54dd9fb 4c9e 4ce4 844ea5aafd77915d Un dispositivo barato para detectar los niveles de plomo en el agua corriente es el hito que ha desarrollado esta niña de 12 años para alzarse con la distinción de ser la mejor científica joven de Estados Unidos.

Su nombre es Gitanjali Rao.

Agua corriente

 98405503 Gitanjali Rao Tethys

El dispositivo está concebido con nanotubos de carbono que envía los resultados de las mediciones del agua al teléfono móvil a través de Bluetooth. Después de ver a sus padres probando con unas rudimentarias tiras si el agua de su casa era segura, Rao decidió inventar un aparato que diese resultados mucho más fiables.

El detector ha sido bautizado como Tethys, por la diosa griega del agua dulce, es portátil. Rao explicó que Tethys funciona en base al "dopaje", que en este caso consiste en introducir elementos o compuestos químicos dentro de los nanotubos.

Usé cloruro para dopar los nanotubos. Cuando el detector se sumerge en agua con plomo, las moléculas de este metal se ven inmediatamente atraídas al cloruro.

Con su proyecto, Rao fue la ganadora del Desafío Científico Joven 2017, un concurso nacional de ciencia organizado por la empresa 3M y la organización educativa Discovery Education. Rao planea invertir el dinero del premio en producir nanotubos de carbono dopados permanentemente con cloruro que puedan instalarse en un grifo.

También te recomendamos

La caza con perdigones podría estar llegando a su fin

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

Éste es el dector "más aislado de todo" para detectar materia oscura

-
La noticia Esta niña de 12 años ganó el premio a la mejor científica joven de Estados Unidos fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

La pesca pone en peligro a uno de los pingüinos más amenazados del mundo

El pingüino de ojo amarillo habita en un área tan limitada, al sureste de Nueva Zelanda, que se le considerada el pingüino más raro. Ahora, un estudio revela que las capturas accidentales en las redes de pesca amenazan aún más a estas aves, protagonistas de #Cienciaalobestia.



Fuente: Noticias

sábado, 9 de diciembre de 2017

¿Por qué a los niños les gustan tanto los dinosaurios?

Dinosaur 2772641 960 720 Los dinosaurios, y los monstruos en general, molan, y cuanto más grandes sean, mejor. Por eso hay tantos niños que les encanta leer sobre dinosaurios o acuden en masa a ver Jurassic World. Incluso les atraen esos nombres tan largos y exóticos que tienen.

El nivel de experiencia de los dinosaurios que puede tener un niño es realmente asombroso, especialmente si tenemos en cuenta que un adulto promedio puede nombrar quizás diez dinosaurios en el mejor de los casos.

Dinosaurios beneficiosos a nivel cognitivo

Los investigadores no saben exactamente qué es lo que provoca estas pequeñas obsesiones infantiles, pero casi un tercio de todos los niños tienen una en algún momento, por lo general entre las edades de 2 y 6 años. Y aunque los estudios han demostrado que el interés más común e intenso son los vehículos (aviones, trenes y automóviles), el próximo más popular, por un amplio margen, son los dinosaurios.

También son particularmente beneficiosos para el desarrollo cognitivo. Un estudio de 2008 encontró que los intereses intensos sostenidos, particularmente en un dominio conceptual como los dinosaurios, pueden ayudar a los niños a desarrollar un mayor conocimiento y persistencia, un mejor tiempo de atención y habilidades más profundas de procesamiento de la información.

Pterosaur 2735500 960 720

En resumen, los dinosaurios pueden crear mejores estudiantes y niños más inteligentes. Hay décadas de investigación para respaldarlo: los niños con intereses intensos tienden a tener una inteligencia superior a la media.

Y probablemente no sea una coincidencia que el rango de edad para desarrollar tales intereses intensos se traslape con las edades pico del juego basado en la imaginación.

El problema de la escuela

Hay una serie de razones por las cuales los niños dejan de querer aprender algo sobre un tema en particular, y una de los más importantes es, irónicamente, la escuela. A medida que ingresan a un entorno educativo tradicional, se espera que alcancen un rango de objetivos en varios temas, lo que no deja mucho espacio para la especialización que exigen temas tan concretos.

Y entonces los dinosaurios dejan de ser tan interesantes.

También hay un gran componente social debido a la disminución de un interés intenso, ya que los niños comienzan a interactuar con sus compañeros a diario. Empiezan a ser más importantes estas interacciones que los dinosaurios, también. Aunque siempre se recuerdan como algo importante en la infancia. Un amor permanente por los dinosaurios podría ser una fase divertida pero temporal, o podría ayudar a algún científico en ciernes a descubrir algún día los secretos del pasado. Sea como fuere, es algo por lo que debemos pasar y que, trasncurrido el tiempo, generalmente dejaremos atrás.

También te recomendamos

La confianza de los niños en sus mascotas

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

El sentido del humor te ayuda a vivir más años

-
La noticia ¿Por qué a los niños les gustan tanto los dinosaurios? fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Hacer este gesto con la cabeza te hace caer mejor a los demás

Hiringc 2697952 960 720 Asentir con aprobación hace caigas mejor a los demás. Al menos es lo que señala este estudio realizado por Jun-ichiro Kawahara, profesor asociado de la Universidad de Hokkaido en Sapporo y Takayuki Osugi, profesor asociado de la Universidad de Yamagata en Yamagata.

Movimiento de cabeza

En el estudio, publicado en la revista Perception, los investigadores pidieron a los participantes que calificaran la simpatía de una serie de figuras generadas por ordenador. Los participantes tuvieron que calificar el atractivo, la accesibilidad y la simpatía de las figuras, usando una escala de 0 a 100. Asentir te hace un 30% más agradable, según se concluye.

Según explica Jun-ichiro Kawahara esta es la primera vez que un estudio muestra que el simple hecho de ver a alguien mover sutilmente la cabeza puede cambiar positivamente la actitud del observador hacia esa persona:

Generalizar estos resultados requiere un cierto grado de precaución porque las caras femeninas generadas por ordenador se utilizaron para manipular los movimientos de la cabeza en nuestros experimentos. Se necesitan más estudios que involucren figuras masculinas, rostros reales y observadores de diferentes antecedentes culturales para aplicar estos hallazgos a realidades situaciones del mundo.

También te recomendamos

3 consejos raros para hacer amigos: no les hagas favores, pídeselos (I)

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

3 consejos raros para hacer amigos: sé un poco patoso (II)

-
La noticia Hacer este gesto con la cabeza te hace caer mejor a los demás fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Pintada en un lienzo de ADN, así es la Mona Lisa más pequeña del mundo

Fotonoticia 20171207113037 260 Concebida en un lienzo hecho de ADN, investigadores de Caltech (Instituto Tecnológico de California) han logrado la Mona Lisa más pequeña del mundo mediante un método económico mediante el cual el origami de ADN se ensambla en grandes matrices con patrones completamente personalizables, creando una especie de lienzo que puede mostrar cualquier imagen.

Nanoarte

Para hacer esta curiosa adaptación utilizaron un método llamado origami de ADN, que funciona de manera similar a la conocida técnica de papel.

Para hacer un solo cuadrado de origami de ADN, uno solo necesita una hebra larga de ADN y muchas hebras más cortas, llamadas grapas, diseñadas para unirse a lugares designados en la hebra larga. Cuando las grapas cortas y la hebra larga se combinan en un tubo de ensayo, las grapas arrastran las regiones de la hebra larga, haciendo que se pliegue sobre sí misma en la forma deseada.

El equipo de Caltech desarrolló un software que puede tomar una imagen como la Mona Lisa, dividirla en pequeñas secciones cuadradas y determinar las secuencias de ADN necesarias para componer la imagen. Así, la imagen microscópica de La Gioconda está dividida en cuadrados, y cada uno de ellos se pliega mediante el uso de una hebra larga de ADN que es manipulada por una especie de grapa. Después, lo que sigue es unir los cuadrados. Todo un desafío desafío, pues cada cuadrado tiene bordes diseñados para unirse de manera específica, por lo que las piezas no se pueden unir si están de manera incorrecta.

Según explica Grigory Tikhomirov, investigador postdoctoral senior y autor principal del estudio:

Podríamos hacer que cada baldosa tenga grapas de borde únicas para que solo puedan unirse a otras baldosas y autoensamblarse en una posición única en la superestructura, pero luego tendría que tener cientos de bordes únicos, que no solo serían muy difíciles de diseñar sino también extremadamente costosos de sintetizar. Queríamos utilizar solo un pequeño número de grapas de borde diferentes, pero aún así tener todas las losetas en los lugares correctos.

También te recomendamos

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

Los verdaderos transformers en funcionamiento gracias a la papiroflexia

Este nuevo termómetro es 20.000 veces más pequeño que un cabello humano

-
La noticia Pintada en un lienzo de ADN, así es la Mona Lisa más pequeña del mundo fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia