Información

¿Cuál es el algoritmo de búsqueda de caminos que utiliza el cerebro humano?

¿Cuál es el algoritmo de búsqueda de caminos que utiliza el cerebro humano?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Estaba tratando de construir una simulación de software de personas que usan diferentes caminos en una ciudad para ir del punto A al punto B. Conozco el algoritmo de Dijkstra y el algoritmo A *, pero lo que hacen es encontrar el camino más corto entre dos nodos. . Esos algoritmos se pueden usar para hacerlo, pero el problema es que solo hacen eso, solo encuentran el camino más corto perfecto. Y cuando veo movimientos de población realistas en una ciudad, veo que diferentes personas eligen diferentes caminos para llegar del punto A al punto B, incluso la misma persona a veces elige un camino diferente en dos momentos diferentes.

Sé que parte de eso depende de factores emocionales que serían imposibles de predecir. Pero mi punto es que cuando miras un mapa y decides tú mismo el camino que vas a usar para ir desde tu ubicación hasta el destino deseado, no parece que ejecutes un algoritmo Dijkstra o A * en tu cerebro. De hecho, no puedo saber la longitud de cada camino, que es algo necesario para ejecutar un algoritmo Dijkstra o A *. ¿Qué algoritmo usa el cerebro para elegir un camino? Claramente, no siempre es el camino más corto. No me refiero solo a la aparente aleatoriedad que otros factores como la seguridad de la carretera pueden agregar al resultado u otros factores emocionales. Porque incluso si mi único objetivo es elegir el camino más corto entre dos puntos, probablemente elegiré un camino diferente al que elegiría otra persona, incluso con el mismo objetivo. Incluso vi que los hombres y las mujeres tienden a tener cerebros adaptados para esto de una manera diferente; en este episodio de Brain Games de National Geographic lo mencionan brevemente, no sé qué tan científicamente exacto es, pero bueno, por eso lo pregunto.

En palabras más cortas, tengo curiosidad sobre el algoritmo de búsqueda de caminos real que usa el cerebro humano. Si hay alguno. ¿Hay algún documento o fuente que pueda leer sobre esto?


Recientemente en Médico Forense

Hallazgos como estos nos están dando pistas sobre la maquinaria neuronal de la autorreflexión. Pero todavía estamos desesperadamente lejos de una comprensión completa de cómo esta maquinaria obras. La autoconciencia es un continuo, más que un fenómeno de todo o nada. Muchos de los bloques de construcción psicológicos para la autoconciencia, como rastrear la incertidumbre y monitorear nuestras acciones, pueden operar inconscientemente, proporcionando un conjunto de pilotos automáticos neuronales que se comparten ampliamente en todo el reino animal y están presentes en la infancia humana. La autoconciencia continúa cristalizando en los niños pequeños, y se forma completamente entre los 3 y los 4 años. Todavía no entendemos cómo sucede esto. Pero una idea prometedora es que la autoconciencia se basa en algoritmos para modelar mentes en general: la capacidad del cerebro para visualizar no solo su propio funcionamiento, sino también el de los demás. Y gracias a las herramientas y al ingenio científico que nos permite mirar dentro del cráneo, ahora estamos en una mejor posición que nunca para comenzar a comprender cómo esos cerebros en frascos de museo una vez supieron que estaban vivos.


¿Y si el filtro está delante de nosotros?

Estas posibilidades suponen que el Gran Filtro está detrás de nosotros, que la humanidad es una especie afortunada que superó un obstáculo que casi todas las demás formas de vida no logran pasar. Puede que este no sea el caso, sin embargo, la vida puede evolucionar a nuestro nivel todo el tiempo, pero puede ser aniquilada por alguna catástrofe desconocida. El descubrimiento de la energía nuclear es un evento probable para cualquier sociedad avanzada, pero también tiene el potencial de destruir tal sociedad. Utilizar los recursos de un planeta para construir una civilización avanzada también destruye el planeta: el proceso actual de cambio climático sirve como ejemplo. O podría ser algo completamente desconocido, una gran amenaza que no podemos ver y no veremos hasta que sea demasiado tarde.

La sugerencia sombría y contradictoria del Gran Filtro es que sería una mala señal para la humanidad encontrar vida extraterrestre, especialmente vida extraterrestre con un grado de avance tecnológico similar al nuestro. Si nuestra galaxia está realmente vacía y muerta, es más probable que ya hayamos pasado por el Gran Filtro. La galaxia podría estar vacía porque todas las demás formas de vida fallaron en algún desafío por el que pasó la humanidad.

Si encontramos otra civilización alienígena, pero no un cosmos repleto de una variedad de civilizaciones alienígenas, la implicación es que el Gran Filtro está delante de nosotros. La galaxia debería estar llena de vida, pero no hay otra instancia de vida que sugiera que las muchas otras civilizaciones que deberían estar allí fueron aniquiladas por alguna catástrofe que nosotros y nuestros homólogos alienígenas todavía tenemos que enfrentar.

Afortunadamente, no hemos encontrado vida. Aunque puede ser solitario, significa que las posibilidades de supervivencia a largo plazo de la humanidad son un poco más altas que de otra manera.


¿Qué puede aprender la IA de la inteligencia humana?

La conferencia de otoño de HAI exploró oportunidades en una intersección crítica de tres vías de inteligencia artificial, neurociencia y psicología.

Instituto Nacional de Salud Mental, Institutos Nacionales de Salud

En la conferencia de otoño de HAI, los académicos discutieron formas novedosas en las que la IA puede aprender de la inteligencia humana, y viceversa.

¿Podemos enseñar a los robots a generalizar su aprendizaje? ¿Cómo pueden los algoritmos volverse más sensatos? ¿Puede el estilo de aprendizaje de un niño influir en la IA?

La conferencia de otoño del Stanford Institute for Human-Centered Artificial Intelligence consideró esas y otras preguntas para comprender cómo mejorar mutuamente y comprender mejor la inteligencia artificial y humana. El evento contó con el tema de "triangular la inteligencia" entre los campos de la inteligencia artificial, la neurociencia y la psicología para desarrollar investigaciones y aplicaciones para un impacto a gran escala.

Los directores asociados de la facultad de HAI, Christopher Manning, profesor de aprendizaje automático, lingüística e informática de Stanford, y Surya Ganguli, profesor asociado de neurobiología de Stanford, actuaron como anfitriones y moderadores del panel de la conferencia, que fue copatrocinada por Wu- Instituto de Neurociencias Tsai, Departamento de Psicología y Programa de Sistemas Simbólicos.

Los oradores describieron enfoques de vanguardia, algunos establecidos, otros nuevos, para crear un flujo bidireccional de conocimientos entre la investigación sobre inteligencia humana y basada en máquinas, para una aplicación poderosa. Éstos son algunos de sus puntos clave.

El poder del refuerzo profundo

Matthew Botvinick, director de investigación en neurociencia de DeepMind, brindó una amplia descripción general del avance de las aplicaciones de inteligencia artificial impulsado por la investigación de la empresa de inteligencia artificial utilizando el aprendizaje por refuerzo profundo (capacitación mediante recompensas) y otros conceptos de neurociencia / psicología.

En 2015, por ejemplo, DeepMind entrenó máquinas para jugar juegos clásicos de Atari en niveles sobrehumanos, luego extendió este enfoque a juegos más complicados como StarCraft y Go y, más recientemente, a juegos de múltiples agentes como Capture the Flag.

Eso ha llevado a ideas y prácticas innovadoras que utilizan conceptos de todo, desde la psicología del desarrollo hasta el comportamiento animal. Por ejemplo, DeepMind actualmente está entrenando redes neuronales de inteligencia artificial utilizando conocimientos de vanguardia del aprendizaje por refuerzo basado en la dopamina en humanos. "Estamos ayudando a los sistemas de IA a realizar mejores predicciones basadas en lo que hemos aprendido sobre el cerebro", dice Botvinick.

Por ejemplo, el equipo descubrió que el cerebro entiende que las recompensas potenciales existen en una distribución, en lugar de simplemente "recompensa" o "sin recompensa", lo que nos ayuda a tomar decisiones sobre las acciones. Los sistemas de inteligencia artificial pueden capacitarse para utilizar enfoques de toma de decisiones similares, inspirados por esa información.

Un enfoque de modelado bidireccional

"Podemos utilizar los sistemas de inteligencia artificial para comprender mejor el cerebro y la cognición, y viceversa", dice Dan Yamins, profesor asistente de psicología e informática de Stanford.

Una de las formas en que su equipo lo ha hecho es modelando el sistema visual humano utilizando IA, y luego comparando modelos optimizados con el funcionamiento real del cerebro para tareas como el reconocimiento facial. En términos generales, la investigación utiliza cuatro principios (clase de arquitectura, tarea, conjunto de datos y regla de aprendizaje) para que dicho modelo piense en los sistemas visuales, auditivos y motores. El enfoque ha ayudado a generar conocimientos, por ejemplo, sobre cómo los bebés usan datos visuales "sin etiquetar" para aprender representaciones de objetos (utilizando datos de SAYCam cogenerados por investigadores de Stanford).

De manera similar, el equipo se mueve en la otra dirección, de la ciencia cognitiva a la inteligencia artificial, donde las observaciones del aprendizaje infantil han llevado al uso de la incrustación de gráficos en 3-D para modelar la física intuitiva y otros procesos en la inteligencia artificial. Ahora, Yamins está trabajando para incorporar la curiosidad en los sistemas de inteligencia artificial, basándose principalmente en cómo los bebés interactúan con sus entornos.

Mejora de la generalización con entrenamiento general

A pesar de este progreso, ampliar los hallazgos del laboratorio de inteligencia artificial a aplicaciones del mundo real puede ser un desafío, como lo señaló la profesora asistente de ciencias de la computación e ingeniería eléctrica de Stanford, Chelsea Finn, quien estudia la inteligencia a través de la interacción robótica. "Los robots a menudo aprenden a usar solo un objeto específico en un entorno específico", dice.

Su equipo está ayudando a las aplicaciones de IA a aprender a generalizar como lo hacen los humanos, proporcionando a los robots experiencias más amplias y diversas. Por ejemplo, encontraron que ofrecer demostraciones visuales de robots resultó en un aprendizaje más rápido y generalizado relacionado con tareas como colocar objetos en cajones o usar herramientas de formas nuevas y establecidas. “Un poco de guía humana ayuda mucho”, dice Finn.

En general, la exposición a datos más amplios conduce a una mejor generalización. Ahora, el equipo de Finn está desarrollando conjuntamente la base de datos RoboNet para compartir videos relacionados con el aprendizaje (15 millones de fotogramas y contando) entre instituciones para ayudar a los robots a "aprender a aprender". Hace que su trabajo y su enseñanza estén ampliamente disponibles.

Hacia una inteligencia de sentido común escalable

La “inteligencia de sentido común” refleja una brecha constante entre la comprensión humana y la máquina, una que varios oradores y sus equipos están tratando de llenar.

“Necesitamos modelar cómo funciona realmente la inteligencia humana”, dice Yejin Choi, profesor asociado de ciencias de la computación e ingeniería de la Universidad de Washington.

Por ejemplo, los sistemas de inteligencia artificial luchan para manejar ejemplos desconocidos, "fuera del dominio" y carecen de nuestra intuición para comprender los "por qué" de los elementos visuales, como lo ilustra el ejercicio "Monstruos en un túnel" de Roger Shepard (vemos la escena representada como una persecución que un sistema de IA no puede).

Para ayudar a las máquinas a desarrollar inteligencia de sentido común, el equipo de Choi creó el sistema Visual Comet utilizando descripciones en lenguaje natural para 60.000 imágenes (accidente de coche, gritos de ayuda, etc.). El objetivo es permitir que los modelos pasen del lenguaje al conocimiento, "al razonamiento sobre la vida cotidiana", como dice Choi. En las pruebas, el sistema ha ayudado a promover la comprensión basada en la inteligencia artificial de escenarios como por qué alguien escribiría un tweet controvertido y qué sucede antes y después.

"Estamos enseñando conceptos de máquinas de forma más directa", dice Choi, "en lugar de a través de conjuntos de datos de opción múltiple".

La codirectora del MIT-IBM Watson AI Lab, Aude Oliva, también está trabajando hacia un objetivo relacionado con el sentido común, llevar la ciencia cognitiva a los modelos de inteligencia artificial. "Hay mucho" oro "en el conocimiento básico de la neurociencia para aplicar a los modelos de IA", dice Oliva.

El proyecto "Moments in Time" de su laboratorio, por ejemplo, utiliza un gran conjunto de datos de videos de tres segundos para ayudar a las redes neuronales a aprender representaciones visuales de actividades como comer, cantar y perseguir, junto con posibles asociaciones entre imágenes visuales. Los modelos consecuentes pueden comprender temas abstractos como la competencia y el ejercicio, por ejemplo, incluso como parte del aprendizaje “zero-shot” (relacionado con un número muy limitado de ejemplos).

Para comprender mejor cómo aprenden los humanos y luego aplicar esto a los modelos de IA, el equipo de Oliva está utilizando imágenes cerebrales MEG (magnéticas) y fMRI (flujo sanguíneo). En conjunto, los datos iluminan exactamente qué regiones del cerebro se activan y cuándo, para procesar entradas visuales, auditivas y de otro tipo, proporcionando pistas sobre cómo construir sistemas de IA más inteligentes y dinámicos. "Estamos aprendiendo los muchos principios comunes entre la cognición humana y la inteligencia artificial", dice Oliva.

El colega de Oliva en el MIT, profesor de ciencia cognitiva computacional Joshua Tenenbaum, busca escalar el aprendizaje y el impacto de la IA utilizando modelos inspirados en humanos. "¿Qué pasaría si pudiéramos desarrollar una inteligencia que crezca como lo hace en los bebés, en versiones más maduras?" él pide.

Sus equipos son de sentido común central de ingeniería inversa utilizando conceptos inspirados en la psicología del desarrollo, como el "niño como científico o codificador", que utiliza programas probabilísticos para construir sistemas de inteligencia artificial con arquitectura similar a la humana. "Queremos simular el 'motor del juego' en su cabeza", dice Tenenbaum, al describir el uso de los cerebros humanos de procesamiento rápido.

Han descubierto la ubicación del motor de física del cerebro, junto con la creación de una red neuronal que puede imitar mejor el sistema visual humano. La investigación informa el desarrollo de plataformas de IA más flexibles y escalables capaces de realizar inferencias y acciones sin precedentes, como DreamCoder, un sistema que puede crear dibujos muy complejos.

Aprender protegiendo la privacidad

Aún así, uno de los desafíos del aprendizaje profundo se relaciona con la privacidad de los datos. "El trato fáustico de hoy", dice Sanjeev Arora, profesor de informática de Princeton, "es que entreguemos nuestros datos para disfrutar de un mundo totalmente personalizado para nosotros", ya sea relacionado con el comercio minorista, la atención médica o el trabajo.

Estudia cómo ayudar al aprendizaje profundo a aprender sin revelar datos a nivel individual. Aquí, las estrategias establecidas, como la privacidad diferencial y el cifrado, sacrifican la precisión y la eficiencia, respectivamente.

InstaHide, el sistema que Arora ha desarrollado conjuntamente, encripta imágenes para el entrenamiento / prueba de modelos de IA, al tiempo que permite una alta precisión y eficiencia. Específicamente, el sistema mezcla imágenes privadas con públicas y cambia el color de los píxeles de forma aleatoria. Un modelo similar aplica la idea a datos basados ​​en texto, cifrando los ingredientes y degradados del texto.

“Los sistemas tienen una precisión cercana al 100 por ciento y pueden ayudar con la privacidad de los datos para todo, desde medicamentos hasta automóviles autónomos”, dice Arora.

Triangular la inteligencia en Stanford

Muchos oradores de Stanford señalaron que triangular la inteligencia es una prioridad en todos los departamentos universitarios. El profesor de biología humana de Stanford y director del Programa de Sistemas Simbólicos Michael Frank y Bill Newsome, profesor de neurobiología y director del Instituto de Neurociencias Wu Tsai, describieron cómo sus organizaciones, junto con HAI, han lanzado programas en esta intersección.

Los estudiantes de Stanford ahora tienen la opción de tomar una nueva concentración de inteligencia artificial centrada en el ser humano en el Programa de sistemas simbólicos de pregrado, con clases que abarcan la ética digital, la política y la política de algoritmos y el diseño de inteligencia artificial.

“Symbolic Systems es un programa universitario único que ofrece una educación interdisciplinaria en computación, filosofía y ciencias cognitivas”, dice Frank. El programa, que comenzó en 1986 y cuenta con exalumnos reconocidos, incluidos los fundadores de LinkedIn e Instagram, presenta un curso introductorio llamado El programa de becas Hoffman-Yee continuará reuniendo estos programas y otros investigadores interdisciplinarios para crear un amplio ecosistema que impulse conocimientos valiosos. y aplicación en la intersección de la IA, la neurociencia y la psicología.

La misión de Stanford HAI es promover la investigación, la educación, las políticas y la práctica de la IA para mejorar la condición humana. Aprende más.


Tendencias psicopáticas vinculadas a patrones de conectividad cerebral, según un nuevo estudio de neurociencia

Una nueva investigación proporciona información sobre los mecanismos neurobiológicos que subyacen a ciertas tendencias psicopáticas. El estudio, publicado en NeuroImage: Clínica, indica que los rasgos psicopáticos de la personalidad, como la insensibilidad, están asociados con diferencias en la conectividad entre dos importantes redes cerebrales.

"Estamos muy interesados ​​en comprender la psicopatía, un conjunto dañino de rasgos de personalidad que se asocia con agresión severa, criminalidad y reincidencia", dijo la autora del estudio Hailey Dotterer, candidata a doctorado en psicología en la Universidad de Michigan.

& # 8220Nos & # 8217 hemos sentido curiosidad por saber qué motiva a las personas a actuar de la forma en que lo hacen, particularmente cuando los individuos actúan de manera negativa & # 8212 al dañar a los demás e ignorar las normas y leyes sociales, que es esencialmente el núcleo de la psicopatía & # 8221.

& # 8220Es importante investigar los fundamentos neuronales de la psicopatía porque trabajos anteriores sugieren que las formas en que las regiones cerebrales dispares se comunican entre sí están relacionadas con la emoción y la atención, que se ven afectadas por la psicopatía, & # 8221 Dotterer.

Dotterer y sus colegas examinaron los datos de imágenes de resonancia magnética funcional (fMRI) en estado de reposo de 123 hombres que habían completado una evaluación de los rasgos de personalidad psicopáticos. Estos rasgos se midieron en un continuo y en la comunidad, lo que significa que midieron la cantidad relativa de estos rasgos en los adultos jóvenes, no en los que están en las prisiones o clasificados como psicópatas. Es decir, todos tenemos relativamente más o menos de cada uno de estos rasgos y estos se pueden asignar al funcionamiento del cerebro.

Los investigadores también utilizaron un algoritmo conocido como Estimación de modelos múltiples iterativos grupales para crear mapas de conectividad específicos de la persona para cada participante.

RelacionadoPublicaciones

Cómo una nueva madre y el cerebro # 8217 responde a su bebé y las emociones # 8217 predice la depresión y la ansiedad posparto

¿Es posible que escuchar música te ralentice en el trabajo o en la escuela?

& # 8220 La psicopatía y los rasgos psicopáticos se ven diferentes en diferentes personas. Algunas personas son más superficialmente encantadoras y manipuladoras, y otras personas son más impulsivamente agresivas. Esto significa que es importante tener en cuenta a las personas en la investigación sobre la psicopatía para, en última instancia, informar los enfoques de intervención personalizados, & # 8221 Dotterer dijo a PsyPost.

& # 8220 Tradicionalmente, dentro de los estudios de neuroimagen, se asume esencialmente que todos los participantes de un grupo tienen redes cerebrales similares, a veces esto es cierto, pero cuando no lo es, los resultados pueden no ser precisos. Nuestro enfoque no se basa en esta suposición, ”se hizo eco de la autora del estudio, Adriene Beltz, profesora asistente de psicología en la Universidad de Michigan.

A pesar de la estructura cerebral única de cada participante, los investigadores encontraron un patrón común de conectividad entre aquellos con niveles relativamente más altos de rasgos psicopáticos. Los participantes con niveles más altos de rasgos tendían a tener una mayor densidad en las conexiones entre la red del modo predeterminado del cerebro y la red ejecutiva central.

La red de modo predeterminado está involucrada en la cognición social y el razonamiento moral, mientras que la red ejecutiva central está involucrada en el autocontrol y la evaluación de los estímulos amenazantes.

& # 8220 Descubrimos que los rasgos psicopáticos, en particular los rasgos de falta de remordimiento y falta de empatía, se asociaban con una mayor comunicación entre dos redes cerebrales que suelen estar & # 8216anti-correlacionadas & # 8217, lo que generalmente significa cuando una está encendida, la otra está apagada: el red de modo predeterminado y red ejecutiva central, & # 8221 Dotterer y Beltz explicaron.

& # 8220 El aumento de la comunicación entre estas redes podría interferir con las funciones típicas de estas redes, impactando comportamientos como la toma de decisiones y la toma de perspectiva, que sabemos que están deteriorados en individuos con rasgos psicopáticos. & # 8221

“Por supuesto, un tema a considerar es que estos son rasgos medidos en adultos jóvenes en la comunidad, ninguno de los cuales fue evaluado para niveles clínicos de psicopatía. Por lo tanto, los resultados nos informan sobre las correlaciones cerebrales de niveles más bajos de estos rasgos que vemos en la comunidad ".

El estudio también destacó las limitaciones de los enfoques tradicionales para analizar los datos de fMRI.

& # 8220Todos estos jóvenes tenían redes cerebrales únicas & # 8212 tan únicas que & # 8217t no había & # 8217t ninguna conexión entre las regiones cerebrales que fuera común para todos los participantes & # 8221, dijo Beltz a PsyPost. & # 8220 El modelado preciso de las redes cerebrales es esencial para comprender cómo se relaciona el cerebro con cosas como los rasgos de personalidad o el comportamiento. & # 8221

Pero, señaló Dotterer, aún no está claro cómo los patrones observados de conectividad cerebral se traducen en comportamiento. & # 8220 Ahora creemos que los patrones están relacionados con algunos rasgos psicopáticos, pero ¿realmente impulsan los comportamientos que asociamos con esos rasgos, como las dificultades para empatizar con otras personas? & # 8221

& # 8220 Necesitamos más investigación de desarrollo y longitudinal para comprender mejor de dónde provienen estos rasgos y patrones cerebrales, es decir, si el funcionamiento de la red cerebral predice rasgos psicopáticos, o viceversa. También necesitamos ver si estos hallazgos surgen en poblaciones carcelarias y en personas con niveles más altos de estos rasgos. & # 8221 Dotterer dijo.


La nueva tecnología de lectura mental recrea imágenes digitales de lo que estás pensando

Las máquinas de lectura de mentes pueden parecer que pertenecen firmemente a los reinos de la ciencia ficción, pero pueden estar más cerca de la realidad de lo que piensas. Los investigadores han desarrollado una técnica que puede producir una imagen digital de lo que una persona está imaginando en su mente, simplemente leyendo la actividad eléctrica de su cerebro.

Como parte de un nuevo estudio, aceptado para su publicación en la revista. eNeuro, un equipo de la Universidad de Toronto Scarborough (UT) utilizó una prueba no invasiva conocida como electroencefalograma y mdash, que generalmente se usa en el diagnóstico de tumores cerebrales, epilepsia y otras afecciones, y mdash para registrar esta actividad eléctrica en participantes a los que se les presentaron estímulos visuales en una pantalla de computadora. .

Los investigadores conectaron a los voluntarios y a los adultos sanos mdash13 entre las edades de 18 y 27 & mdash al EEG a través de electrodos colocados en sus cabezas. Luego mostraron a los participantes los rostros de 140 individuos, uno por uno, en la pantalla de la computadora, mientras registraban su actividad cerebral.

Finalmente, en una computadora instalada con algoritmos especiales de aprendizaje automático, el equipo recreó imágenes de las caras que los participantes estaban mirando utilizando los datos registrados por el EEG. Esencialmente, el algoritmo buscó señales cerebrales relacionadas con la imagen mental que los voluntarios tenían en su mente y la reprodujo como una imagen digital. (El aprendizaje automático se refiere a sistemas informáticos que pueden adaptar su programación de acuerdo con los datos que se les suministran, sin ser reprogramados explícitamente).

El trabajo se basa en la capacidad natural del cerebro para crear lo que se conoce como una percepción mental, o una impresión mental, de todo lo que estamos viendo. "Pudimos capturar esta percepción usando EEG para obtener una ilustración directa de lo que está sucediendo en el cerebro durante este proceso", dijo Dan Nemrodov, un becario postdoctoral en el Departamento de Psicología, quien desarrolló la técnica, en un comunicado.

Si bien las imágenes digitales reconstruidas no son copias perfectas de los originales y mdash, tienen una resolución algo más baja y mdash, el detalle en ellas es impresionante, dicen los investigadores.

"Lo que es realmente emocionante es que no estamos reconstruyendo cuadrados y triángulos, sino imágenes reales del rostro de una persona, y eso implica muchos detalles visuales de grano fino", agregó Adrian Nestor, profesor asistente de psicología en UT.

Este estudio no es la primera vez que los investigadores han reconstruido digitalmente imágenes mentales. Pero la nueva técnica ofrece algunas ventajas claras sobre los métodos existentes.

Anteriormente, los neurocientíficos habían utilizado la resonancia magnética funcional (fMRI), que mide la actividad cerebral al detectar cambios en el flujo sanguíneo en lugar de la actividad eléctrica. Sin embargo, el electroencefalograma es más práctico, porque es más fácil de conseguir, portátil y más económico.

El EEG también es más sensible a pequeños cambios en la actividad cerebral, capturando datos en una escala de milisegundos. Por el contrario, la fMRI solo puede registrar la actividad en una escala de segundos.

Pero Nemrodov señala que muchos investigadores dudaron del potencial del EEG para este tipo de reconstrucción de imágenes, dado que la técnica produce mucho ruido y datos sin sentido en las mediciones que toma. Tampoco es muy preciso para localizar de dónde provienen las señales del cerebro. A pesar de esto, el nuevo estudio, dice, demuestra las ventajas de EEG sobre fMRI. Los resultados podrían ampliar el alcance de esta tecnología, abriendo la puerta para su uso en una variedad de aplicaciones.

"El hecho de que podamos reconstruir lo que alguien experimenta visualmente en función de su actividad cerebral abre muchas posibilidades", dijo Nestor. "Revela el contenido subjetivo de nuestra mente y proporciona una forma de acceder, explorar y compartir el contenido de nuestra imaginación".

Según Nestor, la técnica podría ser un medio de comunicación para personas que no pueden comunicarse verbalmente, quizás debido a una parálisis. "No sólo podría producir una reconstrucción basada en los nervios de lo que una persona está percibiendo, sino también de lo que recuerda e imagina, de lo que quiere expresar", dijo Nestor.

La técnica podría resultar útil para la aplicación de la ley al recopilar información sobre posibles sospechosos de testigos presenciales, en lugar de depender de bocetos o descripciones verbales inexactos.

El siguiente paso, dijeron los investigadores, es determinar si la técnica funcionaría cuando los sujetos de prueba recuerdan un recuerdo desde cero en lugar de mirar una imagen.


Algunos científicos creen que el universo es consciente

En la próxima investigación, los científicos intentarán demostrar que el universo tiene conciencia. Sí, en serio. Independientemente del resultado, pronto aprenderemos más sobre lo que significa ser consciente y qué objetos a nuestro alrededor pueden tener mente propia.

& # 10145 Crees que la ciencia es rudo. Nosotros también. Dejemos que & rsquos empollón lo analicemos juntos.

¿Qué significará eso para la forma en que tratamos los objetos y el mundo que nos rodea? Abróchate el cinturón, porque las cosas están a punto de ponerse raras.

¿Qué es la conciencia?

La definición básica de conciencia deja intencionalmente muchas preguntas sin respuesta. Se trata de la condición mental normal del estado de vigilia de los seres humanos, caracterizada por la experiencia de las percepciones, pensamientos, sentimientos, conciencia del mundo externo y, a menudo, en los seres humanos (pero no necesariamente en otros animales) la conciencia de sí mismos, y rdquo según Oxford. Diccionario de Psicología.

Los científicos simplemente no tienen una teoría unificada de lo que es la conciencia. Tampoco sabemos de dónde viene ni de qué está hecho.

Sin embargo, una laguna de esta brecha de conocimiento es que podemos decir exhaustivamente otros organismos, e incluso objetos inanimados, don & rsquot tener conciencia. Los seres humanos se relacionan con los animales y podemos imaginar, por ejemplo, que los perros y gatos tienen cierta conciencia porque vemos sus expresiones faciales y cómo parecen tomar decisiones. Pero solo porque no nos relacionamos con las rocas, el océano o el cielo nocturno, eso no es lo mismo que demostrar que esas cosas no tienen conciencia.

Aquí es donde una postura filosófica llamada panpsiquismo entra en juego, escribe Todo sobre el espacio& rsquos David Crookes:

Es también donde la física entra en escena. Algunos científicos han postulado que lo que pensamos como conciencia es hecho de sucesos de física cuántica a microescala y otras acciones fantasmagóricas a distancia, revoloteando de alguna manera dentro de nuestros cerebros y generando pensamientos conscientes.

El enigma del libre albedrío

Una de las mentes líderes en física, el premio Nobel de 2020 y pionero de los agujeros negros Roger Penrose, ha escrito extensamente sobre la mecánica cuántica como un vehículo sospechoso de conciencia. En 1989, escribió un libro llamado El Emperador y rsquos New Mind, en el que él reclamado & ldquothat la conciencia humana no es algorítmica y es un producto de efectos cuánticos. & rdquo

Dejemos que & rsquos analice rápidamente esa afirmación. ¿Qué significa que la conciencia humana sea 'ldquoalgoritmic' rdquo? Bueno, un algoritmo es simplemente una serie de pasos predecibles para alcanzar un resultado, y en el estudio de la filosofía, esta idea juega un papel importante en las preguntas sobre el libre albedrío versus el determinismo.

¿Nuestros cerebros están simplemente desarrollando procesos matemáticos que pueden ser telescópicos de antemano? ¿O está sucediendo algo salvaje que nos permite un verdadero libre albedrío, es decir, la capacidad de tomar decisiones significativamente diferentes que afectan nuestras vidas?

Dentro de la filosofía misma, el estudio del libre albedrío se remonta por lo menos siglos. Pero la superposición con la física es mucho más reciente. Y lo que Penrose afirmó en El Emperador y rsquos New Mind es que la conciencia no es estrictamente causal porque, en el nivel más mínimo, es un producto de fenómenos cuánticos impredecibles que no se ajustan a la física clásica.

Entonces, ¿dónde nos deja toda esa información de fondo? Si te rascas la cabeza o tienes pensamientos incómodos, no estás solo. Pero estas preguntas son esenciales para las personas que estudian filosofía y ciencia, porque las respuestas podrían cambiar la forma en que entendemos todo el universo que nos rodea. El hecho de que los humanos tengan o no libre albedrío tiene enormes implicaciones morales, por ejemplo. ¿Cómo se castiga a los delincuentes que nunca podrían haberlo hecho de otra manera?

La conciencia está en todas partes

En física, los científicos podrían aprender cosas clave de un estudio de la conciencia como efecto cuántico. Aquí es donde nos reunimos hoy con los investigadores de rsquos: Johannes Kleiner, matemático y físico teórico del Centro de Filosofía Matemática de Munich, y Sean Tull, matemático de la Universidad de Oxford.

Kleiner y Tull están siguiendo el ejemplo de Penrose & rsquos, tanto en su libro de 1989 como en un artículo de 2014, donde detalla su creencia de que nuestros microprocesos cerebrales y rsquo pueden usarse para modelar cosas sobre todo el universo. La teoría resultante se llama teoría de la información integrada (IIT), y es una forma abstracta y "altamente matemática" de la filosofía que hemos estado revisando.

En IIT, la conciencia está en todas partes, pero se acumula en los lugares donde se necesita para ayudar a unir diferentes sistemas relacionados. Esto significa que el cuerpo humano está repleto de una tonelada de sistemas que deben interrelacionarse, por lo que hay mucha conciencia (o fi, como la cantidad se conoce en IIT) que se puede calcular. Piense en todas las partes del cerebro que trabajan juntas para, por ejemplo, formar una imagen y sentir la memoria de una manzana en su mente y ojo.

Lo revolucionario en IIT no está relacionado con el cerebro humano y mdashit y rsquos que la conciencia no es biológica en absoluto, sino más bien es simplemente este valor, fi, eso se puede calcular si sabe mucho sobre la complejidad de lo que está estudiando.

Si su cerebro tiene casi innumerables sistemas interrelacionados, entonces el universo entero debe tener virtualmente infinitos. Y si eso & rsquos donde la conciencia se acumula, entonces el universo debe tener una gran cantidad de fi.

Oye, te dijimos que esto se iba a poner raro.

&ldquoThe theory consists of a very complicated algorithm that, when applied to a detailed mathematical description of a physical system, provides information about whether the system is conscious or not, and what it is conscious of,&rdquo Kleiner told All About Space. &ldquoIf there is an isolated pair of particles floating around somewhere in space, they will have some rudimentary form of consciousness if they interact in the correct way.&rdquo


6. Ask at the Right Time

So far we&rsquove talked about how to ask your visitor to bite at your call to action, but it&rsquos just as important as when you ask them to do it.

If you&rsquore seeking opt-ins for your course or email list, implement a welcome mat or design your opt-in above-the-fold like marketing leaders Darren Rowse and Brian Dean.

Welcome mats are full-page call to actions and above the fold is the first area you see when you visit a website.

Welcome mats and above-the-fold call to actions provide a less invasive user experience than traditional pop-up boxes. These eliminate the risk of a user leaving your site before seeing your call to action.

However, if your primary goal is to get your users to buy something, it&rsquos best to follow steps 3 and 4 (focus on a benefit and minimize buyer risk) antes de asking them to sign up via a welcome mat. Users will rarely agree to buy without having some idea of what they&rsquore getting for their money.


Why Should You Use an Algorithm?

The upside of using an algorithm to solve a problem or make a decision is that yields the best possible answer every time. This is useful in situations when accuracy is critical or where similar problems need to be frequently solved. In many cases, computer programs can be designed to speed up this process. Data then needs to be placed in the system so that the algorithm can be executed to come up with the correct solution.

Such step-by-step approaches can be useful in situations where each decision must be made following the same process and where accuracy is critical. Because the process follows a prescribed procedure, you can be sure that you will reach the correct answer each time.

The downside of using an algorithm to solve the problem is that this process tends to be very time-consuming. So if you face a situation where a decision needs to be made very quickly, you might be better off using a different problem-solving strategy.

For example, a physician making a decision about how to treat a patient could use an algorithm approach, yet this would be very time-consuming and treatment needs to be implemented quickly. In this instance, the doctor would instead rely on their expertise and past experiences to very quickly choose what they feel is the right treatment approach.


Beyond Bananas: CMU Scientists Harness “Mind Reading” Technology to Decode Complex Thoughts

This latest research led by CMU’s Marcel Just builds on the pioneering use of machine learning algorithms with brain imaging technology to "mind read." The findings indicate that the mind’s building blocks for constructing complex thoughts are formed by the brain’s various sub-systems and are not word-based. Published in Human Brain Mapping and funded by the Intelligence Advanced Research Projects Activity (IARPA), the study offers new evidence that the neural dimensions of concept representation are universal across people and languages.

"One of the big advances of the human brain was the ability to combine individual concepts into complex thoughts, to think not just of 'bananas,' but 'I like to eat bananas in evening with my friends,'" said Just, the D.O. Hebb University Professor of Psychology in the Dietrich College of Humanities and Social Sciences. "We have finally developed a way to see thoughts of that complexity in the fMRI signal. The discovery of this correspondence between thoughts and brain activation patterns tells us what the thoughts are built of."

Previous work by Just and his team showed that thoughts of familiar objects, like bananas or hammers, evoke activation patterns that involve the neural systems that we use to deal with those objects. For example, how you interact with a banana involves how you hold it, how you bite it and what it looks like.

The new study demonstrates that the brain’s coding of 240 complex events, sentences like the shouting during the trial scenario uses an alphabet of 42 meaning components, or neurally plausible semantic features, consisting of features, like person, setting, size, social interaction and physical action. Each type of information is processed in a different brain system—which is how the brain also processes the information for objects. By measuring the activation in each brain system, the program can tell what types of thoughts are being contemplated.

For seven adult participants, the researchers used a computational model to assess how the brain activation patterns for 239 sentences corresponded to the neurally plausible semantic features that characterized each sentence. Then the program was able to decode the features of the 240th left-out sentence. They went through leaving out each of the 240 sentences in turn, in what is called cross-validation.

The model was able to predict the features of the left-out sentence, with 87 percent accuracy, despite never being exposed to its activation before. It was also able to work in the other direction, to predict the activation pattern of a previously unseen sentence, knowing only its semantic features.

"Our method overcomes the unfortunate property of fMRI to smear together the signals emanating from brain events that occur close together in time, like the reading of two successive words in a sentence," Just said. "This advance makes it possible for the first time to decode thoughts containing several concepts. That’s what most human thoughts are composed of."

He added, "A next step might be to decode the general type of topic a person is thinking about, such as geology or skateboarding. We are on the way to making a map of all the types of knowledge in the brain."

CMU’s Jing Wang and Vladimir L. Cherkassky also participated in the study.

Discovering how the brain decodes complex thoughts is one of the many brain research breakthroughs to happen at Carnegie Mellon. CMU has created some of the first cognitive tutors, helped to develop the Jeopardy-winning Watson, founded a groundbreaking doctoral program in neural computation, and is the birthplace of artificial intelligence and cognitive psychology. Building on its strengths in biology, computer science, psychology, statistics and engineering, CMU launched BrainHub, an initiative that focuses on how the structure and activity of the brain give rise to complex behaviors.


Ver el vídeo: Un proyecto europeo intenta crear una máquina idéntica al cerebro humano (Mayo 2022).