1 00:00:00,640 --> 00:00:02,640 La moral nos permite construir conceptos 2 00:00:02,760 --> 00:00:05,200 para distinguir lo que está bien y lo que está mal. 3 00:00:05,320 --> 00:00:08,720 Esto parece un pensamiento muy sofisticado, muy elaborado 4 00:00:08,840 --> 00:00:11,200 y una suerte de construcción cultural. 5 00:00:11,320 --> 00:00:13,760 Sin embargo, los chicos, desde que son muy chicos, 6 00:00:13,879 --> 00:00:16,760 ya tienen arraigadas intuiciones morales muy fuertes, 7 00:00:16,879 --> 00:00:18,640 y, además, si bien en cada cultura 8 00:00:18,760 --> 00:00:20,600 las construcciones morales son distintas, 9 00:00:20,720 --> 00:00:23,160 hay muchísimas cosas que son comunes. 10 00:00:23,280 --> 00:00:26,800 ¿Será acaso, entonces, que el cerebro ya viene configurado 11 00:00:26,920 --> 00:00:29,160 con una suerte de instinto moral? 12 00:00:30,320 --> 00:00:36,280 [Música de presentación] 13 00:00:52,479 --> 00:00:53,840 [Música movida] 14 00:00:53,959 --> 00:00:55,160 ¿Por qué hacemos trampa? 15 00:00:55,280 --> 00:00:56,320 La teoría más natural 16 00:00:56,439 --> 00:00:58,959 es que es una relación de costo y beneficio. 17 00:00:59,080 --> 00:01:01,840 El costo pondera la probabilidad de que nos descubran 18 00:01:01,959 --> 00:01:04,400 y lo que tenemos que pagar si es que nos descubren. 19 00:01:04,520 --> 00:01:07,800 El beneficio es aquello que ganamos por haber hecho la trampa. 20 00:01:07,920 --> 00:01:11,040 Sin embargo, cuando cometemos un acto deshonesto, 21 00:01:11,160 --> 00:01:13,479 existen dos motivaciones en conflicto. 22 00:01:13,600 --> 00:01:14,640 Por un lado, 23 00:01:14,760 --> 00:01:18,000 los beneficios que esperamos obtener de ese comportamiento deshonesto, 24 00:01:18,119 --> 00:01:21,760 pero, por otro, queremos mantener una buena imagen de nosotros mismos, 25 00:01:21,879 --> 00:01:25,040 es decir, que nos sigan viendo como una persona honesta. 26 00:01:25,600 --> 00:01:28,800 Todos somos un poco deshonestos en cosas de todos los días: 27 00:01:28,920 --> 00:01:32,160 hacerse el dormido en el colectivo para no ceder el asiento, 28 00:01:32,280 --> 00:01:34,879 colarse cuando una fila no está muy bien definida, 29 00:01:35,000 --> 00:01:37,239 fumar en un lugar donde no está permitido, 30 00:01:37,360 --> 00:01:39,879 no ceder el paso a un peatón si vamos conduciendo 31 00:01:40,000 --> 00:01:41,400 o no levantar los regalitos 32 00:01:41,520 --> 00:01:43,840 que nuestro perro deja por aquí y por allá. 33 00:01:43,959 --> 00:01:46,320 Son pequeños actos inmorales o deshonestos 34 00:01:46,439 --> 00:01:48,200 con los que convivimos a diario. 35 00:01:48,320 --> 00:01:51,160 Sin embargo, no somos tan deshonestos como parecemos. 36 00:01:51,280 --> 00:01:53,439 Por ejemplo, cuando hay dinero de por medio, 37 00:01:53,560 --> 00:01:55,439 tendemos a ser más honestos. 38 00:01:56,080 --> 00:01:57,280 Cualquiera de nosotros 39 00:01:57,400 --> 00:02:00,080 se podría llevar una lapicera o un lápiz de la oficina, 40 00:02:00,200 --> 00:02:02,560 o, incluso, imprimir documentos personales 41 00:02:02,680 --> 00:02:03,800 con insumos de la oficina, 42 00:02:03,920 --> 00:02:07,000 pero, si hubiera una caja chica con dinero para gastos menores, 43 00:02:07,119 --> 00:02:09,239 no nos llevaríamos un billete de cinco pesos 44 00:02:09,360 --> 00:02:10,840 solo porque no tenemos dinero. 45 00:02:10,959 --> 00:02:12,000 Si lo pensamos, 46 00:02:12,119 --> 00:02:14,800 el valor de la lapicera, el lápiz o las impresiones 47 00:02:14,920 --> 00:02:16,959 puede, incluso, superar esos cinco pesos, 48 00:02:17,080 --> 00:02:18,760 y no nos parece mal llevárnoslos. 49 00:02:18,879 --> 00:02:21,879 Esto nos dice que el dinero afecta nuestros juicios morales 50 00:02:22,000 --> 00:02:24,040 sobre lo que está bien y lo que está mal. 51 00:02:24,160 --> 00:02:27,239 El científico Dan Ariely diseñó un experimento muy sencillo 52 00:02:27,360 --> 00:02:29,720 para explorar este aspecto de nuestro cerebro. 53 00:02:29,840 --> 00:02:32,200 Recorrió las heladeras de las residencias de estudiantes 54 00:02:32,320 --> 00:02:33,360 en el MIT, 55 00:02:33,479 --> 00:02:35,600 el Instituto de Tecnología de Massachusetts, 56 00:02:35,720 --> 00:02:38,080 y dejó seis latas de gaseosas en cada una. 57 00:02:38,200 --> 00:02:40,720 Unos días después, volvió a revisar las heladeras 58 00:02:40,840 --> 00:02:42,879 y las latas habían desaparecido. 59 00:02:43,000 --> 00:02:44,040 A continuación, 60 00:02:44,160 --> 00:02:46,879 dejó seis billetes de un dólar sueltos en cada heladera, 61 00:02:47,000 --> 00:02:49,080 un valor comparable al de las latas de gaseosa. 62 00:02:49,200 --> 00:02:50,640 Al volver unos días después, 63 00:02:50,760 --> 00:02:53,720 todos y cada uno de los billetes seguían ahí. 64 00:02:53,840 --> 00:02:56,520 Evidentemente, somos un poco deshonestos o inmorales, 65 00:02:56,640 --> 00:02:58,439 pero, cuando el dinero entra a la escena, 66 00:02:58,560 --> 00:03:01,280 nuestro cerebro se vuelve un poco más honesto. 67 00:03:01,400 --> 00:03:06,439 [Música suave] 68 00:03:06,560 --> 00:03:07,600 Somos animales 69 00:03:07,720 --> 00:03:11,040 y con todos los animales compartimos un montón de cosas: 70 00:03:11,160 --> 00:03:14,879 tenemos metabolismo, respiramos, nos movemos, a veces, parecido, 71 00:03:15,000 --> 00:03:18,479 tenemos piernas, brazos, tenemos cara, tenemos ojos, 72 00:03:18,959 --> 00:03:21,200 pero, cuando llega al plano de lo cognitivo, 73 00:03:21,320 --> 00:03:24,560 hay funciones que pensamos que son idiosincráticamente humanas. 74 00:03:24,680 --> 00:03:27,840 Por ejemplo, el lenguaje; por ejemplo, un sentido de lo moral; 75 00:03:27,959 --> 00:03:30,160 por ejemplo, el entendimiento y la comprensión del otro, 76 00:03:30,280 --> 00:03:32,680 la cultura, un sentimiento de justicia... 77 00:03:33,280 --> 00:03:35,119 ¿Será así? ¿Serán todas esas funciones 78 00:03:35,239 --> 00:03:37,760 realmente idiosincráticamente humanas? 79 00:03:38,600 --> 00:03:41,479 En este video, vemos un ejemplo de dos monos cooperando. 80 00:03:41,600 --> 00:03:43,400 Para comer, tienen que traer una caja 81 00:03:43,520 --> 00:03:45,119 y ninguno de los dos tiene suficiente fuerza 82 00:03:45,239 --> 00:03:48,400 como para poder tirar de la soga y remontar la caja. 83 00:03:48,520 --> 00:03:51,160 Si los dos trabajan juntos, en equipo y cooperando, 84 00:03:51,280 --> 00:03:53,000 pueden tirar al unísono y al mismo tiempo 85 00:03:53,119 --> 00:03:54,280 para que, eventualmente, la caja llegue 86 00:03:54,400 --> 00:03:55,879 y comerse lo que está dentro de la caja, 87 00:03:56,000 --> 00:03:57,040 que es la comida que van a encontrar 88 00:03:57,160 --> 00:03:58,840 y que ellos saben que está ahí. 89 00:03:58,959 --> 00:04:01,239 Y acá se ve cómo tiran juntos y cómo trabajan, 90 00:04:01,360 --> 00:04:02,400 cómo entienden la idea 91 00:04:02,520 --> 00:04:03,879 de que tienen que trabajar como un equipo 92 00:04:04,000 --> 00:04:05,479 para lograr algo que quieren los dos, 93 00:04:05,600 --> 00:04:07,400 y, eventualmente, traer la caja 94 00:04:07,520 --> 00:04:10,560 y comerse felizmente la comida cuando la obtienen. 95 00:04:11,119 --> 00:04:12,800 No solo esto, sino que, además, 96 00:04:12,920 --> 00:04:14,800 cuando uno de los dos está desmotivado, 97 00:04:14,920 --> 00:04:16,119 quizá, como veremos al final del video, 98 00:04:16,239 --> 00:04:18,760 porque no tenía hambre, y el otro sí quiere traer la comida, 99 00:04:18,879 --> 00:04:21,640 el otro puede transmitirle a su compañero de equipo, 100 00:04:21,760 --> 00:04:25,200 a su colega, a su amigo quizás, el aliento, decirle: 101 00:04:25,320 --> 00:04:26,680 "Vamos, ayudame, tiremos juntos 102 00:04:26,800 --> 00:04:29,200 para lograr algo que es importante para mí". 103 00:04:29,320 --> 00:04:31,720 Y se ve, o por lo menos uno intuye, cómo el otro mono, 104 00:04:31,840 --> 00:04:33,760 que estaba desmotivado, desganado, 105 00:04:33,879 --> 00:04:37,439 a la seña del otro intentando pedirle ayuda, 106 00:04:37,560 --> 00:04:41,119 recoge la cuerda y empieza a tirar para que llegue. 107 00:04:41,239 --> 00:04:42,320 También podemos ver en el video 108 00:04:42,439 --> 00:04:45,000 cómo hace un mono para transmitirle al otro: 109 00:04:45,119 --> 00:04:46,560 "Por favor, ayudame en esto". 110 00:04:46,680 --> 00:04:48,320 Y se ve cómo, de hecho, le empuja la espalda, 111 00:04:48,439 --> 00:04:50,000 cómo le hace gestos, cómo le hace señas, 112 00:04:50,119 --> 00:04:54,800 le hace distintas gestualidades para lograr que el otro mono, 113 00:04:54,920 --> 00:04:56,920 lo ayude en esta tarea. 114 00:04:57,040 --> 00:04:58,200 Y lo que vemos al final de todo 115 00:04:58,320 --> 00:04:59,879 es que, cuando cooperaban en una situación 116 00:05:00,000 --> 00:05:02,000 en la cual el otro estaba desmotivado, 117 00:05:02,119 --> 00:05:04,800 estaba desmotivado, en realidad, porque no tenía hambre. 118 00:05:04,920 --> 00:05:06,760 Él no quería comer y no quería hacer el trabajo ese 119 00:05:06,879 --> 00:05:08,160 para recoger la caja. 120 00:05:08,280 --> 00:05:11,439 sin embargo, bastaba la motivación de cooperar con el otro, 121 00:05:11,560 --> 00:05:13,000 de ayudar al pedido del otro, 122 00:05:13,119 --> 00:05:16,080 para que trabajen juntos para poder remontar la comida. 123 00:05:16,520 --> 00:05:19,239 Esto es el principio de reciprocidad, 124 00:05:19,360 --> 00:05:21,360 que, de alguna manera, es un ladrillo básico 125 00:05:21,479 --> 00:05:23,040 para construir una noción de altruismo, 126 00:05:23,160 --> 00:05:24,239 de ayudar al otro. 127 00:05:24,360 --> 00:05:25,920 La idea de: "Yo te voy a ayudar, 128 00:05:26,040 --> 00:05:28,080 y vos, en algún momento, me vas a devolver ese favor, 129 00:05:28,200 --> 00:05:30,680 y, por lo tanto, nosotros, como pareja o como conjunto, 130 00:05:30,800 --> 00:05:32,320 vamos a ser más fuertes". 131 00:05:32,439 --> 00:05:35,080 De hecho, este comportamiento se observa en muchos animales 132 00:05:35,200 --> 00:05:37,200 en la historia evolutiva, muchos de los cuales, 133 00:05:37,320 --> 00:05:39,920 probablemente, no tengan la noción de que están ayudando, 134 00:05:40,040 --> 00:05:42,239 probablemente, ni siquiera tengan una voluntad explícita 135 00:05:42,360 --> 00:05:43,439 o un deseo de ayudar, 136 00:05:43,560 --> 00:05:46,560 y, sin embargo, este comportamiento evolucionó 137 00:05:46,680 --> 00:05:48,360 porque se vuelve adaptativo porque, de alguna manera, 138 00:05:48,479 --> 00:05:51,720 a ese conjunto de animales les da una cierta fuerza 139 00:05:51,840 --> 00:05:53,800 porque se ayudan los unos con los otros. 140 00:05:54,280 --> 00:05:57,600 Pero nosotros, los seres humanos, tenemos un sentido de la moral 141 00:05:57,720 --> 00:06:00,400 que va mucho más allá de la reciprocidad. 142 00:06:00,520 --> 00:06:01,760 Nosotros podemos ayudar a otra persona 143 00:06:01,879 --> 00:06:03,400 sin esperar nada a cambio. 144 00:06:03,520 --> 00:06:05,360 Ayudamos a otra persona sin ninguna necesidad 145 00:06:05,479 --> 00:06:07,920 de que esa persona sepa que la estamos ayudando; 146 00:06:08,040 --> 00:06:10,080 muchas veces, sin necesidad de que nadie, acaso, 147 00:06:10,200 --> 00:06:12,080 sepa que estamos ayudando a alguien. 148 00:06:12,200 --> 00:06:15,800 ¿De dónde emerge, dónde nace, esta tendencia, esta propulsión, 149 00:06:15,920 --> 00:06:18,320 que tenemos los seres humanos por ayudar al otro 150 00:06:18,439 --> 00:06:19,800 sin esperar nada a cambio, 151 00:06:19,920 --> 00:06:22,760 sin necesidad de que haya ninguna reciprocidad? 152 00:06:22,879 --> 00:06:25,280 [Música suave] 153 00:06:25,400 --> 00:06:26,720 Si nosotros, los primates, 154 00:06:26,840 --> 00:06:28,879 tenemos esa propensión a ser recíprocos, 155 00:06:29,000 --> 00:06:31,600 a ayudar, a tener comportamientos sociales, 156 00:06:31,720 --> 00:06:33,520 debe ser que hay una área en el cerebro 157 00:06:33,640 --> 00:06:35,879 encargada de ese comportamiento social. 158 00:06:36,360 --> 00:06:38,879 ¿Y qué sucede si esa área se lesiona? 159 00:06:39,400 --> 00:06:41,479 Les voy a contar una historia. 160 00:06:41,600 --> 00:06:45,080 En 1848, un señor llamado Phineas Gage 161 00:06:45,200 --> 00:06:47,920 estaba trabajando en la construcción del ferrocarril 162 00:06:48,040 --> 00:06:50,280 en el noreste de los Estados Unidos. 163 00:06:50,400 --> 00:06:52,360 Hubo una tremenda explosión 164 00:06:52,479 --> 00:06:55,560 y, como resultado, una barra de hierro salió despedida, 165 00:06:55,680 --> 00:06:57,600 se incrustó en el ojo izquierdo de Gage, 166 00:06:57,720 --> 00:07:00,680 le atravesó el cráneo y salió por el otro lado. 167 00:07:00,800 --> 00:07:04,479 Gage estuvo tendido en el suelo, pero seguía consciente. 168 00:07:04,920 --> 00:07:07,640 Estuvo luchando durante semanas contra una infección 169 00:07:07,760 --> 00:07:09,760 y, de pronto, se despertó. 170 00:07:10,800 --> 00:07:14,000 Aun con el cráneo atravesado por esa herida, 171 00:07:14,119 --> 00:07:18,959 podía hablar, caminar, moverse, pero Gage ya no era Gage. 172 00:07:20,040 --> 00:07:24,400 Phineas Gage había sido un muchacho de veinticinco años modelo, 173 00:07:24,520 --> 00:07:26,520 el jefe que todos querían tener, 174 00:07:26,640 --> 00:07:29,119 un marido ejemplar, un padre perfecto 175 00:07:29,239 --> 00:07:32,000 y, de pronto, su comportamiento había cambiado. 176 00:07:32,119 --> 00:07:35,920 Se volvió irreverente, irrespetuoso, decía malas palabras todo el tiempo. 177 00:07:36,040 --> 00:07:37,600 Su médico, el doctor Harlow, 178 00:07:37,720 --> 00:07:39,959 recomendaba a las señoras no estar en su presencia 179 00:07:40,080 --> 00:07:42,200 durante demasiado tiempo. 180 00:07:42,320 --> 00:07:45,280 El caso de Phineas Gage es el primer ejemplo 181 00:07:45,400 --> 00:07:48,720 por el cual podemos relacionar al lóbulo frontal 182 00:07:48,840 --> 00:07:50,320 con el comportamiento social 183 00:07:50,439 --> 00:07:54,119 porque la barreta había atravesado esa área de su cerebro. 184 00:07:54,720 --> 00:07:56,920 Hoy podemos tener estudios mucho más finos 185 00:07:57,040 --> 00:07:59,160 gracias a las imágenes cerebrales, 186 00:07:59,560 --> 00:08:02,320 pero Phineas Gage siempre va a quedar en la historia 187 00:08:02,439 --> 00:08:05,280 porque su caso demostró que hay un área del cerebro 188 00:08:05,400 --> 00:08:07,720 que es responsable de nuestra moral. 189 00:08:07,840 --> 00:08:10,479 [Música suave] 190 00:08:10,600 --> 00:08:13,239 La moral también depende de cómo interpretemos 191 00:08:13,360 --> 00:08:14,959 los actos de los demás. 192 00:08:15,479 --> 00:08:16,720 En la antigüedad clásica, 193 00:08:16,840 --> 00:08:19,840 Platón imaginó habitantes de las cavernas 194 00:08:19,959 --> 00:08:23,080 que solamente podían saber qué pasaba en el mundo de afuera 195 00:08:23,200 --> 00:08:24,239 de acuerdo a las sombras 196 00:08:24,360 --> 00:08:26,680 que veían reflejadas en las paredes de la caverna. 197 00:08:26,800 --> 00:08:27,920 Distintas personas 198 00:08:28,040 --> 00:08:30,479 imaginaban cosas distintas de lo que pasaba afuera, 199 00:08:30,600 --> 00:08:32,879 interpretaban un mundo distinto. 200 00:08:33,000 --> 00:08:37,040 Esa interpretación también es parte de lo que entendemos por la moral. 201 00:08:37,160 --> 00:08:41,640 [Música suave] 202 00:08:41,760 --> 00:08:43,800 ¿Cómo juzgamos si lo que hizo otra persona 203 00:08:43,920 --> 00:08:45,239 está bien o mal? 204 00:08:45,640 --> 00:08:48,439 Para esto, no tomamos en cuenta solo las consecuencias, 205 00:08:48,560 --> 00:08:50,040 el resultado de lo que hizo, 206 00:08:50,160 --> 00:08:52,640 sino que, además, estimamos sus intenciones. 207 00:08:52,760 --> 00:08:55,680 ¿Es que quiso obrar de bien o es que quiso obrar de mal? 208 00:08:55,800 --> 00:08:59,439 Y, para esto, necesariamente tenemos que meternos en la cabeza del otro, 209 00:08:59,560 --> 00:09:01,239 tenemos que pensar como pensó, 210 00:09:01,360 --> 00:09:04,200 tenemos que tratar de adivinar cuáles eran sus intenciones 211 00:09:04,320 --> 00:09:05,920 y cuáles sus objetivos. 212 00:09:06,040 --> 00:09:08,280 Para esto, utilizamos una función cerebral 213 00:09:08,400 --> 00:09:10,479 conocida como "teoría de la mente". 214 00:09:10,600 --> 00:09:12,320 La teoría de la mente nos permite, justamente, 215 00:09:12,439 --> 00:09:14,720 ponernos en el lugar de la mente del otro, 216 00:09:14,840 --> 00:09:18,000 y esto se desarrolla muy lento durante la infancia. 217 00:09:18,119 --> 00:09:20,000 Los chicos recién a los tres o cuatro años 218 00:09:20,119 --> 00:09:21,479 consolidan la teoría de la mente, 219 00:09:21,600 --> 00:09:23,640 que, además, gradualmente se consolida 220 00:09:23,760 --> 00:09:25,760 hasta llegar a la adolescencia. 221 00:09:26,439 --> 00:09:29,520 La teoría de la mente nos permite ponernos en el lugar del otro, 222 00:09:29,640 --> 00:09:32,000 algo indispensable para emitir un juicio moral, 223 00:09:32,119 --> 00:09:36,360 es decir, si la otra persona tuvo buenas o malas intenciones. 224 00:09:36,479 --> 00:09:37,720 Presten atención a este juego 225 00:09:37,840 --> 00:09:41,119 y a cómo responden estos niños de tres años de edad. 226 00:09:41,400 --> 00:09:43,000 Bueno, mirá, te voy a mostrar 227 00:09:43,119 --> 00:09:46,320 una muñeca que tengo acá, que se llama Ana. 228 00:09:46,439 --> 00:09:49,000 -Ah, igual que Anita. -Igual que Anita. 229 00:09:49,320 --> 00:09:52,439 Que estaba un día jugando con esta pelota violeta. 230 00:09:52,640 --> 00:09:56,600 Venía jugando. Y se encontró con esta canasta. 231 00:09:56,720 --> 00:09:58,239 Le dieron muchas ganas de hacer pis, 232 00:09:58,360 --> 00:10:00,239 entonces, dejó la pelota en la canasta 233 00:10:00,360 --> 00:10:02,160 y se fue corriendo al baño. 234 00:10:03,760 --> 00:10:07,400 Cuando estaba en el baño, apareció su amiga Luna, 235 00:10:08,239 --> 00:10:10,160 que venía caminando. 236 00:10:10,720 --> 00:10:12,360 Y encontró una pelota 237 00:10:12,840 --> 00:10:15,879 y dijo: "Voy a agarrar la pelota de la canasta 238 00:10:16,080 --> 00:10:18,680 y la guardo en esta cajita que está acá". 239 00:10:20,879 --> 00:10:22,400 Y se fue corriendo también. 240 00:10:22,520 --> 00:10:24,040 (Imitando el sonido de pasos) 241 00:10:24,400 --> 00:10:28,200 Cuando Anita volvió del baño, vino a buscar su pelota. 242 00:10:29,439 --> 00:10:34,640 ¿Dónde creés vos, Emma, que Ana fue a buscar la pelota? 243 00:10:36,320 --> 00:10:38,000 -Decime. -En la caja. 244 00:10:38,119 --> 00:10:39,400 ¿En la caja? 245 00:10:40,640 --> 00:10:41,680 ¿Allá? 246 00:10:43,080 --> 00:10:46,200 -¿Por qué? -Porque está la pelota. 247 00:10:46,760 --> 00:10:48,320 ¿Por qué en la caja? 248 00:10:49,560 --> 00:10:52,640 Porque la puso ahí. 249 00:10:52,760 --> 00:10:56,280 (Voz de mujer) A ver, la va a ir a buscar acá. ¿Por qué? 250 00:10:57,800 --> 00:11:00,479 (Mariano Sigman) Sucede que, a los tres años de edad, el cerebro humano 251 00:11:00,600 --> 00:11:03,720 aún no consolidó la capacidad de ponerse en el lugar del otro. 252 00:11:03,840 --> 00:11:06,040 Los chicos de esa edad no pueden entender que otras personas 253 00:11:06,160 --> 00:11:08,800 puedan tener un conocimiento distinto al de ellos. 254 00:11:08,920 --> 00:11:11,520 Un chico de tres años cree que lo que él piensa o sabe 255 00:11:11,640 --> 00:11:14,239 es lo que todo el mundo piensa o sabe. 256 00:11:14,360 --> 00:11:16,080 Como ellos vieron que la pelota está en la caja, 257 00:11:16,200 --> 00:11:17,920 creen que Ana, la primera muñeca, 258 00:11:18,040 --> 00:11:20,040 va a buscar la pelota exactamente ahí 259 00:11:20,160 --> 00:11:23,239 y se sorprenden cuando la muñeca busca su pelota en la canasta. 260 00:11:23,360 --> 00:11:26,840 Repetimos este juego, pero, ahora, con chicos de cinco años de edad. 261 00:11:26,959 --> 00:11:30,640 Y, cuando Anita volvió del baño, fue a buscar su pelota. 262 00:11:31,239 --> 00:11:32,360 Sí. 263 00:11:33,239 --> 00:11:35,520 ¿Adónde creés que la fue a buscar? 264 00:11:37,080 --> 00:11:38,160 ¿Por qué? 265 00:11:38,800 --> 00:11:40,080 Porque la puso ahí, 266 00:11:40,200 --> 00:11:43,720 y no sabía que la otra amiga se la puso ahí. 267 00:11:44,360 --> 00:11:45,800 -Acá. -Acá. 268 00:11:45,920 --> 00:11:47,560 -¿Y estaba acá? -No. 269 00:11:47,680 --> 00:11:50,720 -¿Por qué? -Porque la cambió de lugar. 270 00:11:51,200 --> 00:11:52,640 ¿Y ella sabía? 271 00:11:53,600 --> 00:11:56,160 ¿Dónde creés que la fue a buscar Anita? 272 00:11:57,000 --> 00:11:58,680 La fue a buscar ahí. ¿Por qué? 273 00:11:58,800 --> 00:12:01,239 Porque ahí es donde la dejó. 274 00:12:01,560 --> 00:12:04,680 -¿Y la encontró? -Oh, no, no, no, no. No está. 275 00:12:04,800 --> 00:12:07,239 ¿Vos dónde creés que la fue a buscar ella? 276 00:12:07,360 --> 00:12:09,720 -Eh, en la canasta. -¿Por qué? 277 00:12:10,680 --> 00:12:13,200 Porque la había dejado en la canasta. 278 00:12:13,320 --> 00:12:14,959 ¿Y va a estar ahí? 279 00:12:15,080 --> 00:12:16,400 -No. -A ver. 280 00:12:17,479 --> 00:12:18,800 (Fingiendo sorpresa) No está. 281 00:12:18,920 --> 00:12:21,280 -¿Dónde estaba? -En la caja. 282 00:12:21,400 --> 00:12:22,760 A ver. Chachán, chachán. 283 00:12:22,879 --> 00:12:24,879 ¡Sí! Estaba acá. 284 00:12:25,360 --> 00:12:27,879 (Mariano Sigman) Evidentemente, entre los tres y los cinco años, 285 00:12:28,000 --> 00:12:30,520 la teoría de la mente se desarrolla y mucho, 286 00:12:30,640 --> 00:12:33,640 y, con ello, cambian los juicios morales de los chicos. 287 00:12:33,760 --> 00:12:36,920 Empatizar, poder entender el punto de vista de otra persona. 288 00:12:37,040 --> 00:12:39,879 Si las acciones de alguien fueron con buena o mala intención, 289 00:12:40,000 --> 00:12:42,560 resulta más difícil para los más pequeños. 290 00:12:43,680 --> 00:12:47,280 [Música suave] 291 00:12:47,400 --> 00:12:49,720 ¿De dónde proviene el sentido de la justicia? 292 00:12:49,840 --> 00:12:52,119 ¿Es algo que aprendemos, que depende de la cultura, 293 00:12:52,239 --> 00:12:54,200 que lo construimos con el lenguaje 294 00:12:54,320 --> 00:12:56,040 o acaso es algo que está mucho más arraigado 295 00:12:56,160 --> 00:12:57,439 en nuestro cerebro? 296 00:12:57,560 --> 00:12:59,600 Para dirimir entre estas dos opciones, 297 00:12:59,720 --> 00:13:02,360 vamos a ver si es que acaso nuestros primos, los monos, 298 00:13:02,479 --> 00:13:04,560 tienen un sentido de la justicia. 299 00:13:05,439 --> 00:13:07,680 Primero vemos un mono que hace un trabajo muy sencillo: 300 00:13:07,800 --> 00:13:10,280 yo te doy una piedra y vos me pagás por eso. 301 00:13:10,400 --> 00:13:11,439 La experimentadora, de hecho, 302 00:13:11,560 --> 00:13:13,560 le paga el entregar la piedra con un pepino, 303 00:13:13,680 --> 00:13:14,959 que es algo que al mono le gusta. 304 00:13:15,080 --> 00:13:17,239 El mono lo recibe, está contento, se lo come, 305 00:13:17,360 --> 00:13:18,479 y así sigue la historia, 306 00:13:18,600 --> 00:13:20,320 hasta que el otro mono, que está al lado, 307 00:13:20,439 --> 00:13:21,479 hace el mismo trabajo: 308 00:13:21,600 --> 00:13:23,520 le da una piedra a la experimentadora. 309 00:13:23,640 --> 00:13:25,360 Y ahora la experimentadora, en vez de pagarle con un pepino, 310 00:13:25,479 --> 00:13:26,720 le paga con una uva, 311 00:13:26,840 --> 00:13:28,560 que es algo que al mono le gusta mucho más, 312 00:13:28,680 --> 00:13:31,239 es decir que, de alguna manera, tiene mucho más valor. 313 00:13:31,360 --> 00:13:33,720 Volvemos al mono original, hace su mismo trabajo 314 00:13:33,840 --> 00:13:36,320 y la experimentadora vuelve a pagarle con un pepino 315 00:13:36,439 --> 00:13:39,239 y ahora lo que antes le gustaba, lo que antes lo hacía feliz, 316 00:13:39,360 --> 00:13:41,080 con lo que antes estaba de acuerdo que era agradable, 317 00:13:41,200 --> 00:13:43,640 ya no le gusta más, le parece injusto. 318 00:13:43,760 --> 00:13:46,520 Golpea la reja, patalea, incluso, tira el pepino, 319 00:13:46,640 --> 00:13:47,680 que es algo que antes le gustaba 320 00:13:47,800 --> 00:13:50,200 y dice: "Yo no me quedo con esto si no me das una uva". 321 00:13:50,320 --> 00:13:51,360 Y esto se vuelve a repetir. 322 00:13:51,479 --> 00:13:53,280 Una vez más, le dan una uva al otro mono, 323 00:13:53,400 --> 00:13:54,720 vuelven al mono original, 324 00:13:54,840 --> 00:13:57,360 y se ve cómo, con cierto desgano y con cierta rabia, 325 00:13:57,479 --> 00:13:59,320 igual dice: "Bueno, vamos a probarte otra vez, 326 00:13:59,439 --> 00:14:02,239 a ver si me pagás por esto con lo que corresponde". 327 00:14:02,360 --> 00:14:05,720 La experimentadora vuelve a darle al mono por la piedra un pepino 328 00:14:05,840 --> 00:14:07,800 y el mono se indigna completamente. 329 00:14:07,920 --> 00:14:11,160 Golpea la reja, se enoja, tira el pepino, se enfurece, 330 00:14:11,280 --> 00:14:12,879 mira mal al otro mono. 331 00:14:13,000 --> 00:14:14,760 Es decir, no recibe algo 332 00:14:14,879 --> 00:14:16,879 que antes era una paga justa y adecuada 333 00:14:17,000 --> 00:14:20,640 porque, como al otro le pagaron más, esto ahora le parece injusto. 334 00:14:20,760 --> 00:14:24,800 Con esto, descubrimos que los monos tienen una noción de justicia. 335 00:14:26,000 --> 00:14:30,160 [Música suave] 336 00:14:30,280 --> 00:14:35,000 Tradicionalmente, se ha argumentado que nacemos como seres amorales 337 00:14:35,119 --> 00:14:37,640 y que conceptos tales como el bien o el mal 338 00:14:37,760 --> 00:14:39,439 se van adquiriendo con el tiempo 339 00:14:39,560 --> 00:14:41,680 gracias a la educación o la experiencia. 340 00:14:41,800 --> 00:14:44,400 Sin embargo, hoy en día, tenemos mucha evidencia 341 00:14:44,520 --> 00:14:45,560 de que, en realidad, 342 00:14:45,680 --> 00:14:48,840 venimos con un rudimentario sentido de la moral 343 00:14:48,959 --> 00:14:50,760 desde los primerísimos años 344 00:14:50,879 --> 00:14:52,680 y que la cultura y la experiencia 345 00:14:52,800 --> 00:14:55,879 modelan ese sentido con el que venimos de fábrica. 346 00:14:56,680 --> 00:14:58,800 [Música suave] 347 00:14:58,920 --> 00:15:00,360 Para investigar si es que los humanos 348 00:15:00,479 --> 00:15:02,160 tenemos un sentido de la moral, 349 00:15:02,280 --> 00:15:05,800 un sentido de qué está bien y qué está mal desde el nacimiento, 350 00:15:05,920 --> 00:15:09,360 convocamos a bebés de entre cinco y doce meses de edad. 351 00:15:10,600 --> 00:15:11,800 En un retablo de títeres, 352 00:15:11,920 --> 00:15:14,560 les presentamos a los bebés una breve escena 353 00:15:14,680 --> 00:15:17,360 en la que el círculo rojo intenta subir la montaña 354 00:15:17,479 --> 00:15:18,520 y no lo logra. 355 00:15:18,640 --> 00:15:19,680 Afortunadamente, 356 00:15:19,800 --> 00:15:22,959 el triángulo amarillo aparece para ayudarlo a llegar a la cima. 357 00:15:23,080 --> 00:15:24,360 Se cierra el telón. 358 00:15:24,479 --> 00:15:27,000 La escena parece llamar mucho la atención de los bebés. 359 00:15:27,119 --> 00:15:29,479 Se abre el telón, la escena se repite. 360 00:15:29,600 --> 00:15:32,600 Al círculo rojo le está costando mucho subir la montaña. 361 00:15:32,720 --> 00:15:35,400 Aparece el cuadrado azul, pero, en lugar de ayudarlo, 362 00:15:35,520 --> 00:15:38,040 empuja al círculo hacia abajo y vuelve a subir. 363 00:15:38,160 --> 00:15:39,280 Nuevamente, esta escena 364 00:15:39,400 --> 00:15:41,959 parece llamar mucho la atención de los bebés. 365 00:15:42,080 --> 00:15:45,320 Se repiten ambas escenas alternadamente unas diez veces. 366 00:15:45,720 --> 00:15:49,040 Este experimento fue diseñado por Karen Wynn y su equipo 367 00:15:49,160 --> 00:15:50,680 en la Universidad Yale. 368 00:15:50,800 --> 00:15:51,840 Wynn sostiene que los bebés 369 00:15:51,959 --> 00:15:55,520 eligen seres sociales por sobre seres antisociales. 370 00:15:55,640 --> 00:15:57,879 Cuando los bebés pierden el interés por los títeres, 371 00:15:58,000 --> 00:16:01,920 se les da la posibilidad de elegir entre el personaje bueno y el malo. 372 00:16:02,040 --> 00:16:03,640 Los resultados de este estudio 373 00:16:03,760 --> 00:16:06,560 arrojan que más del ochenta por ciento de los bebés 374 00:16:06,680 --> 00:16:08,879 eligen al personaje bueno, el que ayudaba, 375 00:16:09,000 --> 00:16:10,680 el del comportamiento social. 376 00:16:10,800 --> 00:16:13,400 Este experimento, junto a otras investigaciones, 377 00:16:13,520 --> 00:16:14,920 sugiere que el cerebro humano 378 00:16:15,040 --> 00:16:17,119 viene de fábrica con un sentido moral, 379 00:16:17,239 --> 00:16:19,720 un sentido que nos hace buenos por naturaleza. 380 00:16:19,840 --> 00:16:22,160 No solo eso, sino que nos hace relacionarnos 381 00:16:22,280 --> 00:16:23,600 y formar sociedades, 382 00:16:23,720 --> 00:16:25,080 tal vez, la pieza fundamental 383 00:16:25,200 --> 00:16:27,760 de nuestro éxito evolutivo como especie. 384 00:16:28,160 --> 00:16:32,640 [Música suave] 385 00:16:32,760 --> 00:16:34,760 Les vamos a contar una historia. 386 00:16:34,879 --> 00:16:37,920 Cada uno de ustedes está en un tranvía. 387 00:16:38,040 --> 00:16:39,920 Vienen en el tranvía, lo vienen manejando, 388 00:16:40,040 --> 00:16:41,520 hicieron el curso de conductor de tranvía, 389 00:16:41,640 --> 00:16:43,439 lo manejan perfecto, está todo bien, 390 00:16:43,560 --> 00:16:45,840 y, de repente, pasa algo bastante dramático: 391 00:16:45,959 --> 00:16:49,479 el tranvía, que va a toda velocidad, se queda sin frenos. 392 00:16:49,840 --> 00:16:51,439 Ustedes averiguan si hay manera de resolverlo, 393 00:16:51,560 --> 00:16:52,760 hacen todo lo posible, 394 00:16:52,879 --> 00:16:54,000 y ustedes, que son grandes conductores 395 00:16:54,119 --> 00:16:55,439 y que conocen muchísimo el tema, 396 00:16:55,560 --> 00:16:58,000 entienden que no hay ninguna manera de resolverlo, 397 00:16:58,119 --> 00:17:00,400 el tranvía va a seguir, y va a seguir y va a seguir. 398 00:17:00,520 --> 00:17:03,000 Y no solo pasa eso, sino que, para su horror, 399 00:17:03,119 --> 00:17:05,640 se dan cuenta de que, en la vía en la que están yendo, 400 00:17:05,760 --> 00:17:07,400 hay cinco personas. 401 00:17:07,520 --> 00:17:09,959 Ustedes van a seguir derecho, no pueden frenar el tranvía 402 00:17:10,080 --> 00:17:12,280 y van a atropellar a esas cinco personas, 403 00:17:12,400 --> 00:17:14,080 pero tienen una opción. 404 00:17:14,239 --> 00:17:15,800 Se dan cuenta de que ese ramal de vía 405 00:17:15,920 --> 00:17:17,119 se abre hacia la derecha, 406 00:17:17,239 --> 00:17:20,320 y que, del lado derecho, donde se abre, hay una persona. 407 00:17:20,439 --> 00:17:23,560 Ustedes tienen el volante, están parados y pueden elegir 408 00:17:23,680 --> 00:17:25,920 si no mover el volante o moverlo, 409 00:17:26,040 --> 00:17:27,680 y tienen la certeza absoluta 410 00:17:27,800 --> 00:17:29,879 de que, si no lo mueven, van a matar a las cinco personas, 411 00:17:30,000 --> 00:17:33,160 y, si lo hacen, van a matar a la que está del otro lado. 412 00:17:33,280 --> 00:17:35,320 Yo les pido a ustedes que, genuinamente, de corazón, 413 00:17:35,439 --> 00:17:36,920 se pongan en esa situación 414 00:17:37,040 --> 00:17:38,840 y que respondan levantando la mano solamente 415 00:17:38,959 --> 00:17:41,040 quién piensa que, estando en esa situación, 416 00:17:41,160 --> 00:17:42,840 movería el volante y giraría el tranvía. 417 00:17:42,959 --> 00:17:45,439 Levanten la mano los que harían eso. 418 00:17:50,160 --> 00:17:51,800 -Creo que todos de hecho. -La gran mayoría. 419 00:17:51,920 --> 00:17:56,119 -Todos. Me parece que todos. -Alguno no, pero la gran mayoría. 420 00:17:56,920 --> 00:17:58,879 Yo les voy a contar otra historia 421 00:17:59,000 --> 00:18:00,800 que tiene que ver con el mismo tranvía, 422 00:18:00,920 --> 00:18:03,320 que también está desbocado, está sin frenos, 423 00:18:03,439 --> 00:18:05,520 pero está sin conductor ahora 424 00:18:05,640 --> 00:18:08,879 y ustedes están viendo lo que pasa, lo están viendo desde un puente 425 00:18:09,000 --> 00:18:11,320 que está por arriba de las vías del tranvía. 426 00:18:11,439 --> 00:18:15,119 Y ustedes ven que, efectivamente, ese tranvía está sin frenos 427 00:18:15,239 --> 00:18:16,959 y está por atropellar a cinco personas 428 00:18:17,080 --> 00:18:18,600 que están más adelante en la vía. 429 00:18:18,720 --> 00:18:20,239 No pueden hacer nada porque están en el puente, 430 00:18:20,360 --> 00:18:23,320 no pueden bajar al tranvía y frenarlo, es imposible, 431 00:18:23,439 --> 00:18:25,040 pero hay una opción. 432 00:18:25,160 --> 00:18:28,160 Ustedes se dan cuenta de que, si desde arriba del puente 433 00:18:28,280 --> 00:18:31,400 empujan a una persona que sea bien grandota, 434 00:18:32,119 --> 00:18:33,920 va a ir a parar a las vías 435 00:18:34,040 --> 00:18:37,520 y seguro que va a detener el tranvía y no va a atropellar a los otros. 436 00:18:37,640 --> 00:18:40,479 Y la decisión que tienen que tomar ustedes ahora 437 00:18:41,000 --> 00:18:43,720 es si van a empujar a esa persona desde el puente a las vías 438 00:18:43,840 --> 00:18:45,520 para detener al tranvía. 439 00:18:45,640 --> 00:18:47,439 ¿Quiénes lo empujarían? 440 00:18:48,479 --> 00:18:51,879 (Mariano Sigman y Diego Golombek) -Uno. -Uno. Interesante. 441 00:18:52,000 --> 00:18:53,640 Ahora vamos a reflexionarlo un poco. 442 00:18:53,760 --> 00:18:55,840 Creo que todos entienden y es bastante sencillo 443 00:18:55,959 --> 00:18:59,439 que, desde el punto de vista del problema, es exactamente igual. 444 00:18:59,560 --> 00:19:00,800 La opción que tienen en el primero 445 00:19:00,920 --> 00:19:02,640 es una opción muy difícil y muy dura, 446 00:19:02,760 --> 00:19:05,439 es si podían elegir que esas cinco personas muriesen 447 00:19:05,560 --> 00:19:06,959 o si, con una acción que ustedes hacían, 448 00:19:07,080 --> 00:19:08,280 que era girar el volante, 449 00:19:08,400 --> 00:19:11,720 podían elegir que otra persona, pero una única persona muriese. 450 00:19:11,840 --> 00:19:13,560 Casi todos optaron por eso. 451 00:19:13,680 --> 00:19:15,200 Eso es lo que, en decisiones morales, 452 00:19:15,320 --> 00:19:17,200 se llama "opción utilitaria". 453 00:19:17,320 --> 00:19:19,640 Uno lo que trata de hacer es elegir aquella acción 454 00:19:19,760 --> 00:19:22,879 que genere el mayor bien común o el menor mal común. 455 00:19:23,000 --> 00:19:24,720 Si ustedes lo piensan desde esa perspectiva, 456 00:19:24,840 --> 00:19:27,400 el otro problema es idéntico, y, por eso, siempre hay alguien que, 457 00:19:27,520 --> 00:19:30,439 desde un punto de vista utilitario, que es correcto en muchos sentidos, 458 00:19:30,560 --> 00:19:31,680 elige hacer ese acto. 459 00:19:31,800 --> 00:19:33,119 Ustedes, otra vez, son los jueces 460 00:19:33,239 --> 00:19:35,479 que eligen, de alguna manera, algo respecto al destino, 461 00:19:35,600 --> 00:19:38,280 y tienen que elegir si quieren que muera una persona que desconocen 462 00:19:38,400 --> 00:19:39,879 o que mueran cinco. 463 00:19:40,000 --> 00:19:41,040 Y, pese a que eso es obvio, 464 00:19:41,160 --> 00:19:43,040 la mayoría de ustedes eligieron no hacerlo. 465 00:19:43,160 --> 00:19:44,320 Y la razón por la cual no lo hicieron 466 00:19:44,439 --> 00:19:46,119 es porque, en muchísimas situaciones, 467 00:19:46,239 --> 00:19:48,720 en la mayoría, no somos utilitarios, 468 00:19:48,840 --> 00:19:51,200 no obramos tratando de maximizar el bien común 469 00:19:51,320 --> 00:19:52,879 o tratando de minimizar el mal común, 470 00:19:53,000 --> 00:19:54,280 sino que eso se pondera 471 00:19:54,400 --> 00:19:56,800 con algunas acciones que no estamos dispuestos a hacer. 472 00:19:56,920 --> 00:19:59,000 La sensación que uno tiene de que uno está obrando sobre alguien 473 00:19:59,119 --> 00:20:01,280 cuando uno empuja a una persona grande 474 00:20:01,400 --> 00:20:03,600 es demasiado fuerte emocionalmente, 475 00:20:03,720 --> 00:20:06,720 y necesitamos demasiadas razones para hacer eso, 476 00:20:06,840 --> 00:20:08,560 y no alcanza el cálculo utilitario 477 00:20:08,680 --> 00:20:10,479 de decir: "Bueno, yo lo hago y es tremendo, 478 00:20:10,600 --> 00:20:12,560 pero estoy salvando cinco vidas". 479 00:20:12,680 --> 00:20:14,560 Entonces, el cerebro, todo el tiempo, 480 00:20:14,680 --> 00:20:17,160 está ponderando estas dos posibilidades. 481 00:20:17,280 --> 00:20:19,080 La diferencia entre estos dos dilemas 482 00:20:19,200 --> 00:20:20,320 es que, en uno de los dos casos, 483 00:20:20,439 --> 00:20:22,479 se mantiene la consideración utilitaria, 484 00:20:22,600 --> 00:20:23,720 es cinco contra uno, 485 00:20:23,840 --> 00:20:26,320 pero se cambia fuertemente, muy fuertemente de hecho, 486 00:20:26,439 --> 00:20:27,560 la consideración emocional 487 00:20:27,680 --> 00:20:30,239 y eso hace que todos ustedes, todos ustedes salvo uno, 488 00:20:30,360 --> 00:20:33,119 decidan no hacer algo que tenía las mismas consecuencias 489 00:20:33,239 --> 00:20:35,239 que lo que sí todos hicieron en el otro caso. 490 00:20:35,360 --> 00:20:37,119 Lo que sí, haceme acordar de que nunca 491 00:20:37,239 --> 00:20:39,720 me vaya arriba de un puente con él. 492 00:20:40,680 --> 00:20:45,280 [Música suave] 493 00:20:45,400 --> 00:20:47,600 Para investigar cómo responde el cerebro humano 494 00:20:47,720 --> 00:20:49,160 frente a los dilemas morales, 495 00:20:49,280 --> 00:20:51,600 se llevaron a cabo una serie de estudios 496 00:20:51,720 --> 00:20:54,200 en los cuales los voluntarios tenían que analizar 497 00:20:54,320 --> 00:20:57,800 si un comportamiento les resultaba apropiado o inapropiado. 498 00:20:57,920 --> 00:21:01,840 Claro, mientras los voluntarios analizaban y decidían su respuesta, 499 00:21:01,959 --> 00:21:06,080 se registraba su actividad cerebral a través de un resonador magnético. 500 00:21:06,600 --> 00:21:08,400 Los investigadores querían estudiar 501 00:21:08,520 --> 00:21:11,560 el papel de las emociones en la toma de decisiones morales 502 00:21:11,680 --> 00:21:15,040 y cómo pueden llegar a sobreponerse por encima de la racionalidad. 503 00:21:15,160 --> 00:21:16,520 Se les planteó a los voluntarios 504 00:21:16,640 --> 00:21:19,239 una serie de dilemas morales impersonales, 505 00:21:19,360 --> 00:21:20,400 como el del tranvía, 506 00:21:20,520 --> 00:21:22,080 y una serie de dilemas personales, 507 00:21:22,200 --> 00:21:24,600 como el del puente y la persona corpulenta. 508 00:21:24,720 --> 00:21:27,520 Mientras tanto, se medía la actividad de áreas del cerebro 509 00:21:27,640 --> 00:21:29,360 relacionadas con las emociones 510 00:21:29,479 --> 00:21:30,920 y también la actividad de áreas 511 00:21:31,040 --> 00:21:33,119 relacionadas con cómputos racionales, 512 00:21:33,239 --> 00:21:35,600 en particular, la memoria de trabajo. 513 00:21:35,720 --> 00:21:38,479 Lo que ven aquí es el cambio en la actividad de las áreas 514 00:21:38,600 --> 00:21:40,000 con respecto a un valor de base. 515 00:21:40,119 --> 00:21:42,520 La barra azul corresponde a la racionalidad 516 00:21:42,640 --> 00:21:44,360 y la roja a las emociones. 517 00:21:44,479 --> 00:21:47,840 En el dilema del tranvía, un dilema moral impersonal, 518 00:21:47,959 --> 00:21:50,520 la variación de la actividad de las áreas de la razón 519 00:21:50,640 --> 00:21:53,920 fue mucho más pronunciada que la de las áreas emocionales. 520 00:21:54,040 --> 00:21:55,720 Se prioriza el cálculo racional, 521 00:21:55,840 --> 00:21:58,320 la muerte de una persona en lugar de cinco. 522 00:21:58,439 --> 00:22:01,520 En el dilema del puente, un dilema moral personal, 523 00:22:01,640 --> 00:22:04,280 se obtuvieron valores completamente distintos. 524 00:22:04,400 --> 00:22:05,520 Las áreas emocionales 525 00:22:05,640 --> 00:22:07,840 se activaron mucho más que las racionales. 526 00:22:07,959 --> 00:22:11,119 El costo emocional de empujar a una persona hacia su muerte 527 00:22:11,239 --> 00:22:13,600 sobrepasa cualquier cálculo racional. 528 00:22:13,720 --> 00:22:16,439 Estos estudios nos ayudan a comprender mejor 529 00:22:16,560 --> 00:22:17,879 cómo funciona nuestro cerebro 530 00:22:18,000 --> 00:22:21,119 y cómo todos nuestros juicios de valor, nuestros juicios morales, 531 00:22:21,239 --> 00:22:23,640 tienen un fuerte componente emocional. 532 00:22:23,760 --> 00:22:28,160 [Música suave] 533 00:22:28,280 --> 00:22:32,280 Somos seres morales y la moral está dentro del cerebro. 534 00:22:32,400 --> 00:22:33,680 Hay áreas del cerebro 535 00:22:33,800 --> 00:22:36,400 directamente implicadas en el comportamiento moral, 536 00:22:36,520 --> 00:22:39,439 incluso, pueden ser moduladas por la emoción. 537 00:22:39,560 --> 00:22:43,160 Pero la moral, además, cumple una función, es utilitaria. 538 00:22:43,720 --> 00:22:46,360 Eso nos permite sentir a través del otro, 539 00:22:46,760 --> 00:22:48,400 nos permite desarrollar la empatía, 540 00:22:48,520 --> 00:22:51,040 nos permite formar grupos y armar un pacto social 541 00:22:51,160 --> 00:22:53,000 para construir sociedades. 542 00:22:53,119 --> 00:22:55,520 La moral nos sirve para cuidar a los otros, 543 00:22:55,640 --> 00:22:59,239 lo que, en definitiva, significa cuidarnos a nosotros mismos. 544 00:22:59,360 --> 00:23:01,119 Qué lindo que habla, ¿no? 545 00:23:02,760 --> 00:23:08,720 [Música de cierre]