domingo, 10 de diciembre de 2017

Un grupo de científicos logra "inyectar" información en el cerebro de un mono

Cbls5bmel0z8rxlxbbfh Los neurocientíficos de la Universidad de Rochester dicen que han logrado introducir información directamente en la corteza premotora de los monos, al estilo la película Matrix ("ya sé Kung Fu").

Los investigadores publicaron los resultados del experimento el jueves en la revista Neuron.

Inyectando información

Cuando conduces tu coche hacia una intersección, la visión de la luz te hará pisar el freno. Esta acción sucede gracias a una cadena de eventos dentro de tu cabeza. Tus ojos transmiten señales a los centros visuales en la parte posterior de tu cerebro. Después de que esas señales se procesan, viajan por un camino a otra región, la corteza premotora, donde el cerebro planea los movimientos.

Ahora, imagina que tienes un dispositivo implantado en tu cerebro que podría atajar la ruta e "inyectar" información directamente en tu corteza premotora.

Aunque la investigación mencionada es preliminar, llevada a cabo en solo dos monos, los investigadores especularon que una mayor investigación podría conducir a implantes cerebrales para personas con accidentes cerebrovasculares. Según ha explicado Kevin A. Mazurek, coautor del estudio:

Se podría evitar las áreas dañadas y proporcionar estimulación a la corteza premotora. Esa podría ser una forma de unir partes del cerebro que ya no pueden comunicarse.

Jxdf9jseimpvrsxralsq

Para estudiar la corteza premotora, entrenaron a dos monos rhesus para jugar un juego. Los monos se sentaron frente a un panel equipado con un botón, una perilla en forma de esfera, una perilla cilíndrica y un mango en forma de T. Cada objeto estaba rodeado por luces LED. Si las luces alrededor de un objeto se encendían, los monos tenían que tenderle la mano para obtener una recompensa, en este caso, un refrescante chorro de agua.

Cada objeto requería una acción particular. Si el botón brillaba, los monos tenían que empujarlo. Si la esfera brillaba, tenían que girarla. Si el asa o el cilindro con forma de T se iluminaba, tenían que tirar de él. Después de que los monos aprendieron a jugar, los científicos colocaron 16 electrodos en el cerebro de cada mono, en la corteza premotora. Cada vez que se encendía un anillo de luces, los electrodos transmitían una ráfaga de electricidad débil y breve. Los patrones variaron según el objeto que los investigadores querían que los monos manipularan.

A medida que los monos jugaban más rondas del juego, los anillos de luz se atenuaron. Al principio, el oscurecimiento hizo que los monos cometieran errores. Pero luego su desempeño mejoró. Eventualmente, las luces se apagaron por completo, sin embargo, los monos solo pudieron usar las señales de los electrodos en sus cerebros para elegir el objeto correcto y manipularlo para la recompensa. Y lo hicieron tan bien como con las luces.

Esto sugiere que las regiones sensoriales del cerebro, que procesan la información del medio ambiente, pueden evitarse por completo. El cerebro puede idear una respuesta al recibir información directamente, a través de electrodos.

También te recomendamos

Un violín para combatir trastornos psicológicos en niños

Los capuchinos también pueden ser rencorosos

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

-
La noticia Un grupo de científicos logra "inyectar" información en el cerebro de un mono fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

¿Realmente estamos viviendo una revolución en la IA o no es para tanto?

Artificial Intelligence 2983958 960 720 Casi cada día desayunamos con alguna noticia sobre Inteligencia Artificial que, indefectiblemente, nos evoca a Skynet. Una de las últimas es que, en solo cuatro horas, la IA de Google, AlphaZero, ha logrado dominar todo el conocimiento ajedrecístico por ella misma.

Realmente la IA ya está empezando a dominar muchos campos del conocimiento de forma más solvente que el ser humano, pero ¿eso significa que este crecimiento en habilidades continuará adelante a este ritmo? Y, después de todo, ¿es tan espectacular lo que estamos viendo hasta ahora?

Inteligencia relativa

Parece que la IA está protagonizando una revolución de la que todavía no somos capaces de predecir sus efectos. Cada día se escriben artículos al respecto, los popes de la tecnología advierten que debemos tener cuidado y no continuar adelante, se escriben docenas de libros al años (yo mismo he publicado recientemente uno).

Gran parte de esta revolución la está protagonizando el Deep Learning (aprendizaje profundo), sobre todo en el campo de la traducción, el reconocimiento de voz, el reconocimiento de imágenes y los juegos.

Pero lo peculiar del aprendizaje profundo es la edad de las ideas clave sobre las que se sustenta. En un artículo innovador de Geoffrey Hinton, con sus colegas David Rumelhart y Ronald Williams, publicado en 1986, se presentaba la técnica backpropagation, o retropropagación para abreviar. Es decir, que quizá no estamos tanto en el inicio de una revolución sino en sus últimos coletazos, la que inició el backprop.

Artificial Intelligence 2228610 960 720

Retropropagación

En la década de 1980, Hinton era, como lo es ahora, un experto en redes neuronales, un modelo muy simplificado de la red de neuronas y sinapsis en nuestros cerebros. Sin embargo, en ese momento se había decidido firmemente que las redes neuronales eran un callejón sin salida en la investigación de IA.

Aunque la red neuronal más antigua, el Perceptron, que comenzó a desarrollarse en la década de 1950, había sido aclamada como un primer paso hacia la inteligencia de una máquina a nivel humano, un libro de 1969 del MIT Marvin Minsky y Seymour Papert, llamado Perceptrons, demostró matemáticamente que las redes podían realizar solo las funciones más básicas. Estas redes tenían solo dos capas de neuronas, una capa de entrada y una capa de salida. Las redes con más capas entre las neuronas de entrada y salida podrían, en teoría, resolver una gran variedad de problemas, pero nadie sabía cómo entrenarlas, y en la práctica eran inútiles.

Excepto por unos pocos reticentes como Hinton, Perceptrons hizo que la mayoría de la gente renunciara por completo a las redes neuronales.

El avance de Hinton, en 1986, fue demostrar que la retropropagación podría formar una red neural profunda, es decir, una con más de dos o tres capas. Pero pasaron otros 26 años antes de que aumentara el poder computacional para hacer efectivo el descubrimiento. Un artículo de 2012 de Hinton demostró que las redes neuronales profundas, entrenadas usando la retropropagación, superaban a los sistemas más avanzados en reconocimiento de imágenes. El "aprendizaje profundo" despegaba.

Capaoculta

Una red neuronal generalmente se dibuja con capas apiladas una encima de la otra. Las capas contienen neuronas artificiales, que son pequeñas unidades computacionales tontas que se excitan y transmiten esa excitación a las otras neuronas a las que están conectadas. La excitación de una neurona está representada por un número, como 0.13 o 32.39, que señala lo emocionada que está. Y hay otro número crucial, en cada una de las conexiones entre dos neuronas, que determina cuánta excitación debe pasarse de una a la otra. Cuando el número es más alto, significa que la conexión es más fuerte, por lo que una mayor parte de la excitación fluye hacia la otra neurona.

En el reconocimiento de imágenes por parte de una IA, la capa superior de la red neuronal, la capa de salida, tiene solo dos neuronas, una que representa "árbol" y la otra que representa "no árbol". La idea es enseñar a la red neuronal a excitar solo la primera capa de esas neuronas si hay un árbol. La propagación inversa, o retropropagación, la técnica sobre la que Hinton ha construido su carrera, es el método para hacerlo.

¿Cómo funciona?

La retropropagación es bastante imple, aunque funciona mejor con grandes cantidades de datos. En este caso, los datos toman la forma de millones de imágenes, algunas con árboles y otras sin ellos; el truco es que estas imágenes están etiquetadas como si tuvieran árboles. Cuando crea su red neuronal por primera vez, las conexiones entre las neuronas pueden tener pesos aleatorios: números aleatorios que indican cuánta excitación transmitir a lo largo de cada conexión. Es como si todavía no se hubieran sintonizado las sinapsis del cerebro. El objetivo de la retropopagación es cambiar esos pesos para que la red funcione: de modo que cuando pasas la imagen de un árbol a la capa más baja, la neurona de "árbol" de la capa superior termina por excitarse.

Backprop, pues, es un procedimiento para re-ajustar la fuerza de cada conexión en la red para corregir el error de un ejemplo de entrenamiento dado.

La forma en que funciona, paso a paso, es que comienzas con las dos últimas neuronas, y descubres cuán equivocadas estaban: ¿cuánta diferencia hay entre lo que los números de excitación deberían haber sido y lo que son? A continuación, se echa un vistazo a cada una de las conexiones que conducen a esas neuronas, las que se encuentran en la siguiente capa inferior, y se descubre su contribución al error. Se continúa haciendo esto hasta que llegas al primer conjunto de conexiones, en la parte inferior de la red. En ese punto, se sabe cuánto contribuyó cada conexión individual al error general y, finalmente, se cambia cada una de las ponderaciones en la dirección que mejor se reduzca el error en general. La técnica se llama "retropropagación" porque está "propagando" errores hacia atrás (o hacia abajo) a través de la red, comenzando desde la salida.

Lo sorprendente es que cuando haces esto con millones o miles de millones de imágenes, la red comienza a ser muy competente a la hora de señalar si en una imagen aparece un árbol o no.

Y lo que es aún más asombroso es que las capas individuales de estas redes de reconocimiento de imágenes comienzan a ser capaces de "ver" imágenes de la misma manera que lo hace nuestro propio sistema visual. Es decir, la primera capa podría terminar detectando bordes, en el sentido de que sus neuronas se excitan cuando hay bordes y no se excitan cuando no las hay; la capa encima de esa podría ser capaz de detectar conjuntos de bordes, como esquinas; la capa encima de esa puede comenzar a ver formas, y así sucesivamente.

La red se organiza, en otras palabras, en capas jerárquicas sin haber sido programada explícitamente de esa manera.

Processor 2217771 960 720

Sorprendentemente tonto

A pesar de sus asombrosos resultados, pues, estos sistemas de aprendizaje profundo son bastante tontos. Las redes neuronales son simplemente identificadores de patrones y, por tanto, se pueden engañar fácilmente. Una red neuronal profunda que reconoce imágenes puede bloquearse por completo al cambiar un solo píxel o agregar un ruido visual imperceptible para un ser humano.

El aprendizaje profundo de alguna manera imita lo que sucede en el cerebro humano, pero solo de una manera superficial, lo que quizás explica por qué su inteligencia a veces puede parecer tan superficial. La razón de ello es que no podemos imitar el cerebro humano en toda su complejidad porque ni siquiera sabemos cómo funciona.

De hecho, el backprop no fue descubierto tras sondear profundamente en el cerebro, descifrando el pensamiento en sí mismo; surgió a partir de modelos de cómo los animales aprenden por ensayo y error en antiguos experimentos de acondicionamiento clásico.

Hemos mejorado la IA de forma increíble, pero en función de pequeños retoques de ingeniería. Se ignora si mejorando esa ingeniería se alcanzará algo parecido a la solvencia de un cerebro humano. Y si hemos exprimido ya todo lo que da de sí la retropropagación, estaríamos en las postrimerías de una pequeña revolución en la IA.

¿Alguna vez la IA podrá aprender con tanta fluidez que un cerebro humano diferentes tipos de patrones conectados entre sí en función de distintos contextos? En definitiva, ¿una IA podría tener algo parecido a un modelo del mundo? No lo sabemos. Ni siquiera sabemos con seguridad si estamos siguiendo el camino correcto para conseguirlo. Eso no significa, naturalmente, que no acabemos por lograrlo, o que, al menos, consigamos que la IA realice muchos trabajos puntuales de forma mucho más eficaz que el ser humano.

También te recomendamos

La computadora que aprende de sus propios errores

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

Los humanos ya no son los únicos que componen música: el compositor artificial

-
La noticia ¿Realmente estamos viviendo una revolución en la IA o no es para tanto? fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Esta niña de 12 años ganó el premio a la mejor científica joven de Estados Unidos

 98392268 A54dd9fb 4c9e 4ce4 844ea5aafd77915d Un dispositivo barato para detectar los niveles de plomo en el agua corriente es el hito que ha desarrollado esta niña de 12 años para alzarse con la distinción de ser la mejor científica joven de Estados Unidos.

Su nombre es Gitanjali Rao.

Agua corriente

 98405503 Gitanjali Rao Tethys

El dispositivo está concebido con nanotubos de carbono que envía los resultados de las mediciones del agua al teléfono móvil a través de Bluetooth. Después de ver a sus padres probando con unas rudimentarias tiras si el agua de su casa era segura, Rao decidió inventar un aparato que diese resultados mucho más fiables.

El detector ha sido bautizado como Tethys, por la diosa griega del agua dulce, es portátil. Rao explicó que Tethys funciona en base al "dopaje", que en este caso consiste en introducir elementos o compuestos químicos dentro de los nanotubos.

Usé cloruro para dopar los nanotubos. Cuando el detector se sumerge en agua con plomo, las moléculas de este metal se ven inmediatamente atraídas al cloruro.

Con su proyecto, Rao fue la ganadora del Desafío Científico Joven 2017, un concurso nacional de ciencia organizado por la empresa 3M y la organización educativa Discovery Education. Rao planea invertir el dinero del premio en producir nanotubos de carbono dopados permanentemente con cloruro que puedan instalarse en un grifo.

También te recomendamos

La caza con perdigones podría estar llegando a su fin

Guía para regalar una Crock-Pot en Navidad: cómo saber si es o no una buena idea

Éste es el dector "más aislado de todo" para detectar materia oscura

-
La noticia Esta niña de 12 años ganó el premio a la mejor científica joven de Estados Unidos fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

La pesca pone en peligro a uno de los pingüinos más amenazados del mundo

El pingüino de ojo amarillo habita en un área tan limitada, al sureste de Nueva Zelanda, que se le considerada el pingüino más raro. Ahora, un estudio revela que las capturas accidentales en las redes de pesca amenazan aún más a estas aves, protagonistas de #Cienciaalobestia.



Fuente: Noticias