viernes, 10 de enero de 2020

Las personas de izquierdas o de derechas son igualmente racistas

Las personas de izquierdas o de derechas son igualmente racistas

La postura ideológica en el arco derecha-izquierda tiene más que ver con la cosmovisión de uno mismo y la adquisición de un pack ideológico dado que de una reflexión ponderada. Por ello, hay incoherencias entre los propios integrantes de un extremo u otro.

Y también hay muchas similitudes: porque una cosa es cómo se presenta uno a nivel moral (lo que aspira a ser o finge ser) y otra cosa es lo que realmente es. Por eso no resulta extraño constatar que el racismo es transversal.

Búsquedas de Google

Como resulta muy difícil meternos en la cabeza de las pesonas para saber lo que realmente piensan y la gente suele responder en las encuestas lo que resulta coherente con su postura base o lo que se espera de ella pero no lo que piensa de verdad, una forma interesante de averiguar la tendencia de alguien es escrutar las búsquedas que realiza a través de Google.

Es decir, usar los macrodatos para establecer correlaciones con búsquedas relacionadas con el racismo de forma negativa. Por ejemplo, la búsqueda del término "nigger". O la búsqueda de chistes racistas. O de "Stormfront", un foro de Internet neonazi, nacionalista blanco, supremacista blanco, antisemita y negadora del Holocausto.

Gracias a ello, Seth Stephens-Davidowitz ha podido trazar un nuevo mapa del racismo sociológico en su libro Todo el mundo miente, advirtiendo algo que, en cierto modo, nos debería parecer obvio: que los republicanos afincados en el sur de Estados Unidos podían ser más proclives a admitir el racismo, pero muchos demócratas del norte albergaban actitudes similares:

Los sondeos y la opinión popular situaban el racismo moderno sobre todo en el sur y mayormente entre republicanos. Pero entre los lugares con mayores tasas de búsquedas racistas figuraban el norte del estado de Nueva York, el oeste de Pensilvania, el este de Ohio, la zona industrial de Michigan y la zona rural de Illinois, así como Virginia Occidental, el sur de Luisiana y Misisispi. La verdadera línea divisoria, según sugerían los datos de búsquedas de Google, no estaba entre el sur y el norte; estaba entre el este y el oeste. Uno no encontraba estas cosas muy al oeste de Misisipi. Y el racismo no se limitaba a los republicanos. De hecho, las búsquedas racistas no eran más numerosas en lugares con un alto porcentaje de republicanos que en lugares con un alto porcentaje de demócratas.

De hecho, si se estudia cómo cambia el racismo en internet en partes del país más o menos expuestas a la Gran Recesión, uno no puede afirmar que una de las principales causas del racismo sea la inseguridad y la vulnerabilidad económica. El aumento de desempleo, sencillamente, no parece ser lo que alimente el racismo. Los que sí se ha hallado es que las búsquedas racistas se correlacionaban con mayores tasas de mortalidad para los negros.

Stephens-Davidowitz asegura que los datos provenientes del buscador son "más plausibles de no tener ninguna censura que las encuestas, ya que son, en general búsquedas realizas en la intimidad, con mayor libertad y menor censura social".

-
La noticia Las personas de izquierdas o de derechas son igualmente racistas fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Intervención pionera para prevenir el dolor de espalda del personal de enfermería

El Hospital del Mar es el primer hospital español en poner en marcha una iniciativa para prevenir el dolor de espalda de enfermeras y enfermeros. En el estudio han participado más de 250 profesionales. Los resultados indican una reducción del 63 % en el dolor percibido en las cervicales, los hombros y la parte alta de la espalda. 



Fuente: Noticias

Llega el primer eclipse lunar de 2020

La luna llena de enero brillará un poco menos este viernes cuando atraviese la zona de penumbra de la Tierra. Este eclipse penumbral tendrá su máximo a las 8 y 8 de la tarde (hora peninsular española) y será el primero de un año que acabará con un espectacular eclipse total de sol visible desde Sudamérica en diciembre.



Fuente: Noticias

Gracias a esta técnica podemos escuchar lo que tiene que decir una persona que no puede hablar

Gracias a esta técnica podemos escuchar lo que tiene que decir una persona que no puede hablar

Utilizando modelos computacionales conocidos como redes neuronales, un grupo de investigadores ha reconstruído palabras y oraciones que, en algunos casos, eran inteligibles para los oyentes humanos y que intentaban ser verbalizadas por diversos pacientes.

El desarrollo de esta técnica permite "escuchar" a las personas que no puede hablar debido a alguna enfermedad simplemente descifrando los datos que registraban en el cerebro de los pacientes. Es decir, bastaba con que la persona imaginara lo que quería decir.

Futuras prótesis de voz

Las personas que han perdido la capacidad de hablar después de un derrame cerebral o una enfermedad pueden usar sus ojos o hacer otros pequeños movimientos para controlar un cursor o seleccionar letras en pantalla, tal y como hacía Stephen Hawking. Pero si una interfaz cerebro-computadora pudiera recrear el discurso directamente, podrían recuperar mucho más que el habla: también el control sobre el tono y la inflexión de lo que quieren decir, por ejemplo, o la capacidad llevar a cabo una conversación más fluida.

Este pequeño milagro ha sido realizado gracias a los datos con los que se han entrenado las redes neuronales artificiales que procesan patrones complejos del cerebro. Para el estudio, se basaron en los datos de cinco personas con epilepsia.

La red analizó grabaciones de la corteza auditiva (que está activa tanto durante el habla como la audición) a medida que esos pacientes escuchaban grabaciones de historias y personas que nombraban dígitos de cero a nueve. Luego, un ordenador reconstruyó los números hablados solo a partir de datos neuronales; cuando el ordenador "pronunció" los números, un grupo de oyentes los identificó con un 75% de precisión.

Las señales cerebrales cuando una persona "habla" o "escucha" en silencio su voz en su cabeza no son idénticas a las señales del habla o del oído. Sin un sonido externo que coincida con la actividad cerebral, puede ser difícil para un ordenador incluso determinar dónde comienza y termina el habla interna.

Sin embargo, se están dando pasos impresionantes en este sentido, para quizá algún día crear una prótesis de voz artificial. Otro ejemplo en este sentido es el protagonizado por el neurocirujano Edward Chang y su equipo en la Universidad de California, San Francisco, que reconstruyeron oraciones enteras a partir de la actividad cerebral capturada del habla y las áreas motoras mientras tres pacientes con epilepsia leían en voz alta. En una prueba online, 166 personas escucharon una de las oraciones y tuvieron que seleccionarla entre 10 opciones escritas. Algunas oraciones se identificaron correctamente más del 80% del tiempo.

Otro gran salto en la calidad de estas técnicas pasaría, quizás, por proporcionar retroalimentación al usuario de la interfaz cerebro-computadora: si el usuario puede escuchar la interpretación del habla del ordenador en tiempo real, podría ajustar sus pensamientos para obtener el resultado que desea.

Anteriormente este tipo de estudios se centraban en tratar de comprender los movimientos musculares que acaban produciendo las palabras, sin embargo, esta producción de lenguaje natural involucra más de cien músculos y además un movimiento no siempre resulta en un sonido. Para Chethan Pandarinath y Yahia Ali, expertos en ingeniería biomédica en la Universidad de Emory, "el enfoque de estos autores resulta en una menor distorsión acústica que los anteriores sistemas de descodificación".

Poco a poco, pues, estudios más audaces nos están encaminando hacia la posibilidad de que las personas que tienen dificultades para hablar puedan hacerlo con una fluidez mayor, quizá en un futuro próximo indistinguible del habla normal.

-
La noticia Gracias a esta técnica podemos escuchar lo que tiene que decir una persona que no puede hablar fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia

Cómo un examen de ojos puede darnos información sobre la calidad de la audición de una persona

Cómo un examen de ojos puede darnos información sobre la calidad de la audición de una persona

Evaluar la audición en personas que no pueden responder presionando un botón, levantando una mano o hablando, como bebés, niños mayores con déficit de desarrollo y adultos que sufren un trastorno debilitante o están demasiado enfermos para responder es complicado.

Pero ¿y si bastara con examinar la dilatación de las pupilas de los ojos?

Dilatación ocular

Recientemente, dos neurocientíficos han publicado un estudio en el Journal of the Association for Research in Otolaryngology en el que usan tecnología de seguimiento ocular simultáneamente mientras realizan exámenes de audición tradicionales con 31 adultos.

La dilatación se controló durante unos tres segundos mientras los participantes miraban un punto en un monitor mientras se tocaba un tono.

Los niveles de dilatación observados a lo largo de las pruebas reflejaron directamente las respuestas posteriores de los participantes sobre si se escuchó o no un tono.

En las pruebas, los participantes observaban un punto en una pantalla, y escuchaban tonos a 1, 2, 4 y 8 kilohercios, los cuales se reprodujeron en retrasos aleatorios para asegurarse de que los sujetos no pudieran predecir cuándo aparecería el sonido.

Los investigadores observaron que las pupilas comenzaron a cambiar dentro de 250 milisegundos, aproximadamente un cuarto de segundo, del estímulo sonoro. La rapidez de la respuesta permitió al equipo ver y establecer la causalidad.

Los neurocientíficos autores de singular estudio, Avinash Singh Bala y Terry Takahashi, ahora están colaborando con Dare Baldwin, profesor de psicología, en el desarrollo de su propia tecnología para realizar pruebas con bebés.

-
La noticia Cómo un examen de ojos puede darnos información sobre la calidad de la audición de una persona fue publicada originalmente en Xataka Ciencia por Sergio Parra .



Vía Xataka Ciencia