Inicio - Ciencia y Tecnología - Los robots también pueden ser malas compañías

Los robots también pueden ser malas compañías

[Img #62783]

Una influencia importante en la conducta humana a la hora de tomar decisiones arriesgadas es la presión de otras personas, que puede llevar a un comportamiento de mayor riesgo. Con la creciente interacción del Ser Humano con sistemas “inteligentes” artificiales, tanto físicamente como a través de internet o bajo otras condiciones, conviene averiguar hasta qué punto las máquinas pueden tener una influencia similar sobre la toma de decisiones de una persona. Saber hasta qué punto los robots pueden influir en el nivel de riesgo que estamos dispuestos a afrontar podría ayudar a forjar leyes, protocolos psiquiátricos y otras formas de preparar a la humanidad futura ante la influencia del robot sobre la persona.

Una nueva investigación, realizada por el equipo de Yaniv Hanoch, de la Universidad de Southampton en el Reino Unido, contó con 180 estudiantes que participaron en una prueba, a modo de videojuego, en la que a los participantes se les pide que presionen la barra espaciadora de un teclado para inflar un globo que se muestra en la pantalla. Con cada pulsación de la barra espaciadora, el globo se infla ligeramente y se añade 1 penique al «banco de dinero temporal» del jugador. Los globos pueden explotar al azar, lo que significa que el jugador pierde el dinero que ha ganado por ese globo, aunque tiene la opción de cobrar antes de que esto ocurra y abandonar ese globo para pasar al siguiente.

Un tercio de los participantes hicieron la prueba en una habitación sin compañía. Otro tercio hicieron la prueba junto con un robot que solo les proporcionó las instrucciones pero que permaneció en silencio el resto del tiempo. El último tercio hicieron la prueba con el robot proporcionando instrucciones así como haciendo comentarios que les incitaban a arriesgarse más, como por ejemplo «¿Por qué dejaste de bombear?».

Los resultados de los experimentos mostraron que el grupo que fue alentado por el robot tomó más riesgos, inflando sus globos mucho más que los de los otros grupos. En este caso, también ganaron más dinero en general. Sin embargo, no hubo una diferencia significativa entre el grupo de quienes estaban acompañados por el robot silencioso y el grupo de quienes estaban solos.

Los sujetos de estudio que no estaban acompañados por el robot que incitaba a arriesgarse redujeron su comportamiento de riesgo tras la explosión de un globo, mientras que quienes sí estaban acompañados por ese robot siguieron arriesgándose tanto como antes.

Los autores del estudio creen muy necesario comprobar si se obtienen resultados similares de la interacción humana con otros sistemas “inteligentes” artificiales, como asistentes digitales o avatares en pantalla. (Fuente: NCYT de Amazings)

Más noticias...

Google anuncia un cambio histórico para ganar la batalla de la IA: unifica sus equipos de hardware y software

Lejos quedaron los tiempos en los que el ritmo de innovación de Google daba vértigo. …

A %d blogueros les gusta esto: