All language subtitles for Juego sucio

af Afrikaans
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bn Bengali
bs Bosnian
bg Bulgarian
ca Catalan
ceb Cebuano
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English Download
eo Esperanto
et Estonian
tl Filipino
fi Finnish
fr French
fy Frisian
gl Galician
ka Georgian
de German
el Greek
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
km Khmer
ko Korean
ku Kurdish (Kurmanji)
ky Kyrgyz
lo Lao
la Latin
lv Latvian
lt Lithuanian
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mn Mongolian
my Myanmar (Burmese)
ne Nepali
no Norwegian
ps Pashto
fa Persian
pl Polish
pt Portuguese
pa Punjabi
ro Romanian
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
st Sesotho
sn Shona
sd Sindhi
si Sinhala
sk Slovak
sl Slovenian
so Somali
es Spanish
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
te Telugu
th Thai
tr Turkish
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
or Odia (Oriya)
rw Kinyarwanda
tk Turkmen
tt Tatar
ug Uyghur
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:03,840 --> 00:00:04,960 ¿Y si las elecciones 2 00:00:05,040 --> 00:00:07,600 para nombrar al cuadragésimo quinto Presidente de Estados Unidos 3 00:00:07,680 --> 00:00:09,400 no hubieran sido una contienda justa? 4 00:00:12,320 --> 00:00:14,120 El poder siempre ha estado destinado 5 00:00:14,200 --> 00:00:15,680 para aquellos que saben persuadir, 6 00:00:15,760 --> 00:00:17,320 argumentar y seducir, 7 00:00:17,400 --> 00:00:19,200 pero... ¿fue así en esta ocasión? 8 00:00:21,280 --> 00:00:22,040 Donald Trump 9 00:00:22,120 --> 00:00:24,240 desmanteló las tradicionales reglas de juego 10 00:00:24,320 --> 00:00:25,200 del tablero político. 11 00:00:30,440 --> 00:00:32,760 Convirtió la mentira en una estrategia política, 12 00:00:32,840 --> 00:00:34,320 apoyado por un grupo de gente 13 00:00:34,400 --> 00:00:36,080 que quería imponer en Estados Unidos 14 00:00:36,160 --> 00:00:37,960 su visión reaccionaria del mundo; 15 00:00:42,240 --> 00:00:44,920 una facción que trazó poco a poco su camino al poder, 16 00:00:45,000 --> 00:00:46,880 hasta acabar ejerciendo una influencia 17 00:00:46,960 --> 00:00:48,320 en la carrera electoral 18 00:00:48,400 --> 00:00:50,320 sin que la gente cayera en la cuenta. 19 00:00:53,960 --> 00:00:55,600 ¿Cómo pudo ser eso posible? 20 00:00:57,040 --> 00:00:58,840 ¿Cómo es que la democracia estadounidense 21 00:00:58,920 --> 00:01:00,760 permitió que los engaños, las artimañas 22 00:01:00,840 --> 00:01:01,840 y la manipulación 23 00:01:01,920 --> 00:01:04,800 fueran, al cabo, cruciales en tan increíble victoria? 24 00:01:09,840 --> 00:01:12,760 Veremos de qué modo fue embaucado el pueblo estadounidense, 25 00:01:12,840 --> 00:01:13,520 hasta el punto 26 00:01:13,600 --> 00:01:15,760 de llegar a abrirle las puertas de la Casa Blanca 27 00:01:15,840 --> 00:01:16,720 a Donald Trump. 28 00:01:30,480 --> 00:01:32,200 Todas las mentiras y noticias falsas 29 00:01:32,280 --> 00:01:34,240 cayeron del lado de la campaña de Donald Trump. 30 00:01:40,640 --> 00:01:42,800 Si los estadounidenses supieran lo que pasó, 31 00:01:42,880 --> 00:01:43,760 se indignarían. 32 00:01:52,280 --> 00:01:54,800 No tuvimos la suficiente perspicacia en aquel momento 33 00:01:54,880 --> 00:01:55,960 para verlo venir. 34 00:02:02,960 --> 00:02:06,440 Una democracia que se mueve entre sombras, no es una democracia. 35 00:02:13,440 --> 00:02:15,160 ¡Tratan de hacerse con el control del gobierno 36 00:02:15,240 --> 00:02:17,240 para... para destruirlo! 37 00:02:38,760 --> 00:02:43,120 Presentaré los hechos con claridad y sinceridad. 38 00:02:53,120 --> 00:02:54,760 El mayor problema de las mentiras 39 00:02:54,840 --> 00:02:56,960 es que siempre hay alguien que se las termina creyendo. 40 00:03:03,600 --> 00:03:05,720 Esto es Staten Island, Nueva York. 41 00:03:07,600 --> 00:03:09,200 En un estado de mayoría demócrata, 42 00:03:09,280 --> 00:03:11,160 este distrito es una excepción. 43 00:03:12,760 --> 00:03:15,560 Aquí la mayoría de la gente votó por Donald Trump. 44 00:03:17,280 --> 00:03:18,960 Scott Lobaido reside aquí. 45 00:03:19,400 --> 00:03:21,400 Este artista es un patriota y, por encima de todo, 46 00:03:21,480 --> 00:03:23,160 un gran defensor del nuevo Presidente. 47 00:03:27,160 --> 00:03:30,040 No es alguien convencional, y yo tampoco lo soy. 48 00:03:31,880 --> 00:03:33,200 Soy un pintor neoyorquino 49 00:03:33,280 --> 00:03:35,520 que siempre he hablado sin pelos en la lengua. 50 00:03:36,920 --> 00:03:39,520 Estoy vendiendo esta serie por cuarenta y cinco dólares, 51 00:03:39,600 --> 00:03:42,080 porque se trata del Presidente número cuarenta y cinco. 52 00:03:43,040 --> 00:03:44,640 Ha llegado un nuevo sheriff a la ciudad. 53 00:03:45,040 --> 00:03:46,880 Vamos a poner orden en casa; se van a enterar. 54 00:03:49,160 --> 00:03:52,600 ¿Acaso necesitaba a los medios para ganar las putas elecciones? 55 00:03:53,440 --> 00:03:54,760 ¡Si los tenía a todos en contra! 56 00:03:55,520 --> 00:03:57,440 Siempre hacen piña contra el republicano, 57 00:03:57,520 --> 00:03:59,320 sin que les importe quién haya ganado. 58 00:03:59,400 --> 00:04:01,040 Los medios de comunicación son así. 59 00:04:01,880 --> 00:04:03,920 Es lo mismo que esa inquina asquerosa, 60 00:04:04,000 --> 00:04:05,280 la inquina tan poco disimulada 61 00:04:05,360 --> 00:04:07,680 cuando pones la C N N y te dices: 62 00:04:08,480 --> 00:04:11,320 vale, vale, vale, vale... 63 00:04:11,960 --> 00:04:13,400 Pero es que te vas a otra y... 64 00:04:14,520 --> 00:04:18,480 joder, la M S N B C no da tregua... 65 00:04:19,800 --> 00:04:21,160 No pueden soportar ... 66 00:04:22,880 --> 00:04:23,920 ... que les venciera, 67 00:04:25,160 --> 00:04:27,000 porque dijeron que no iba a ganar. 68 00:04:29,720 --> 00:04:31,520 Harto de los medios tradicionales, 69 00:04:31,600 --> 00:04:33,760 Scott se informa ahora solo por internet. 70 00:04:35,920 --> 00:04:37,080 Antes de irme a dormir, 71 00:04:37,160 --> 00:04:37,840 me paso una hora 72 00:04:37,920 --> 00:04:39,600 mirando en el teléfono esto y aquello. 73 00:04:40,360 --> 00:04:40,720 De pronto, 74 00:04:40,800 --> 00:04:42,440 puede que me encuentre algún discurso de Trump 75 00:04:42,520 --> 00:04:45,080 que no haya escuchado aún y me diga: voy a escucharlo ahora. 76 00:04:45,760 --> 00:04:46,480 A veces reconozco 77 00:04:46,560 --> 00:04:48,520 que ni siquiera me fijo en quién está dando el discurso. 78 00:04:48,600 --> 00:04:49,720 ¿Sabes a lo que me refiero? 79 00:04:50,640 --> 00:04:52,320 Como muchos millones de votantes de Trump, 80 00:04:52,800 --> 00:04:54,520 Scott empezó a creerse a pies juntillas 81 00:04:54,600 --> 00:04:55,960 todo lo que veía en la red. 82 00:04:59,120 --> 00:05:00,360 Por ejemplo, este artículo: 83 00:05:01,040 --> 00:05:03,440 «Trump piensa que hay “millones” de votos fraudulentos». 84 00:05:07,040 --> 00:05:07,800 O este otro: 85 00:05:08,360 --> 00:05:10,920 «Más de ochocientos mil ilegales votaron a Hillary Clinton. 86 00:05:13,240 --> 00:05:14,880 Yo no digo que fueran tres millones, 87 00:05:14,960 --> 00:05:16,600 pero estoy seguro de que fueron muchos. 88 00:05:17,440 --> 00:05:19,880 Y lo que es de cajón es que si eres un ciudadano ilegal, 89 00:05:19,960 --> 00:05:20,960 no deberías poder votar. 90 00:05:21,640 --> 00:05:23,480 Lo siento, pero así es como funcionan las cosas. 91 00:05:24,120 --> 00:05:26,800 Ellos quieren cambiar el asunto y ¡no, señores, de eso nada! 92 00:05:28,120 --> 00:05:29,720 Obviamente, todo es mentira: 93 00:05:29,800 --> 00:05:30,800 los inmigrantes ilegales 94 00:05:30,880 --> 00:05:32,680 no tienen derecho al voto en Estados Unidos. 95 00:05:33,360 --> 00:05:34,840 Es el tipo de información manipulada 96 00:05:34,920 --> 00:05:37,120 tan característica de la última campaña electoral, 97 00:05:37,200 --> 00:05:39,160 hasta el punto de que este tipo de artículos 98 00:05:39,240 --> 00:05:41,560 llevan consigo una etiqueta: fake news, 99 00:05:41,800 --> 00:05:43,120 noticias falsas o bulos. 100 00:05:43,920 --> 00:05:45,320 Scott está lejos de ser el único 101 00:05:45,400 --> 00:05:47,320 que le da crédito a este tipo de embustes. 102 00:05:47,400 --> 00:05:49,560 Se cuentan por millones los que se los han tragado. 103 00:05:50,080 --> 00:05:51,040 Hay portales de noticias 104 00:05:51,120 --> 00:05:52,040 que están especializados 105 00:05:52,120 --> 00:05:53,920 en la difusión de este tipo de contenidos. 106 00:05:54,000 --> 00:05:56,360 Breitbart News es el más conocido de ellos. 107 00:05:58,000 --> 00:05:59,520 Es un canto al mal gusto, 108 00:05:59,600 --> 00:06:01,880 con ilustraciones racistas e informaciones falsas. 109 00:06:03,800 --> 00:06:06,280 En Breitbart podemos encontrar artículos como este: 110 00:06:07,120 --> 00:06:09,080 «¿Convierte el feminismo en feas a las mujeres?». 111 00:06:10,240 --> 00:06:11,080 O este: 112 00:06:12,040 --> 00:06:14,720 «¿Qué prefieres que padezca tu hija: feminismo o cáncer?». 113 00:06:15,560 --> 00:06:17,840 Breitbart está también obsesionado con el islam. 114 00:06:18,360 --> 00:06:20,800 «La nueva Guerra Fría es la de Occidente contra el islam. 115 00:06:20,880 --> 00:06:22,360 Aquí damos las claves para ganarla». 116 00:06:23,000 --> 00:06:23,680 O bien: 117 00:06:24,800 --> 00:06:25,840 «La corrección política 118 00:06:25,920 --> 00:06:27,800 ampara la cultura musulmana de la violación». 119 00:06:29,160 --> 00:06:30,480 Es obsceno, 120 00:06:31,560 --> 00:06:32,440 misógino, 121 00:06:33,160 --> 00:06:33,920 racista... 122 00:06:34,960 --> 00:06:37,320 Y está al servicio de una ideología reaccionaria, 123 00:06:37,400 --> 00:06:39,560 que es el ADN de Breitbart News. 124 00:06:45,040 --> 00:06:47,200 Breitbart es una plataforma de la derecha, 125 00:06:47,280 --> 00:06:48,800 fundada por Andrew Breitbart 126 00:06:49,600 --> 00:06:53,600 un activista, periodista y contertulio de ideas conservadoras. 127 00:06:59,280 --> 00:07:02,080 Breitbart ocupa un hueco realmente marginal. 128 00:07:02,960 --> 00:07:04,920 Representan a lo que ellos llaman alt-right, 129 00:07:05,720 --> 00:07:06,680 la derecha de la derecha, 130 00:07:07,480 --> 00:07:10,360 gente que quiere poner en jaque el orden político fundamental 131 00:07:10,440 --> 00:07:12,040 y lo hace de forma deliberada. 132 00:07:12,920 --> 00:07:15,320 Despotrican contra los inmigrantes de este país, 133 00:07:16,200 --> 00:07:18,440 así como contra las personas de fe musulmana, 134 00:07:19,360 --> 00:07:22,320 y tratan de abrir una brecha entre los sexos y las razas. 135 00:07:24,800 --> 00:07:25,840 En tan solo unos meses, 136 00:07:25,920 --> 00:07:26,960 Breitbart se convirtió 137 00:07:27,040 --> 00:07:28,400 en la principal fuente de información 138 00:07:28,480 --> 00:07:30,240 de la extrema derecha estadounidense. 139 00:07:31,560 --> 00:07:32,520 En esencia, 140 00:07:32,600 --> 00:07:35,240 se pusieron al servicio de Trump y todo su movimiento. 141 00:07:37,320 --> 00:07:38,040 Y, a su vez, 142 00:07:38,120 --> 00:07:40,120 Donald Trump adoptó la visión del mundo 143 00:07:40,200 --> 00:07:41,320 que proyectaba Breitbart 144 00:07:41,920 --> 00:07:42,960 porque sabía que así 145 00:07:43,040 --> 00:07:45,000 iba a tocar la fibra de su electorado. 146 00:07:52,440 --> 00:07:54,600 Hay quien tilda a los votantes de Trump 147 00:07:54,680 --> 00:07:55,840 como de gente airada, 148 00:07:55,920 --> 00:07:57,640 y yo no estoy segura de que eso sea así; 149 00:07:58,320 --> 00:08:00,440 más bien, tenían miedo, estaban preocupados, 150 00:08:00,520 --> 00:08:02,560 abrumados y asustados por el futuro. 151 00:08:03,360 --> 00:08:06,760 Si nos fijáramos en aquellos que, en la primavera de 2016, 152 00:08:06,840 --> 00:08:08,960 votaron en las primarias republicanas, 153 00:08:09,480 --> 00:08:12,280 veríamos cómo cundía entre ellos la inquietud por el terrorismo 154 00:08:12,360 --> 00:08:13,640 y la inmigración, 155 00:08:14,520 --> 00:08:17,240 dos cosas que para ellos iban de la mano 156 00:08:17,960 --> 00:08:20,240 y suponían una verdadera amenaza 157 00:08:20,720 --> 00:08:23,080 para la supervivencia de Estados Unidos. 158 00:08:25,800 --> 00:08:29,280 Y eso es justo de lo que se ocupó en sus discursos Donald Trump 159 00:08:29,880 --> 00:08:32,560 a diferencia del resto de candidatos republicanos. 160 00:08:34,960 --> 00:08:35,880 Trump se dedicó 161 00:08:35,960 --> 00:08:37,800 a inundar de mentiras la campaña electoral, 162 00:08:37,880 --> 00:08:39,120 lanzando una serie de tuits 163 00:08:39,200 --> 00:08:40,920 que jugaban con los temores de la gente. 164 00:08:47,320 --> 00:08:49,840 Tad Devine lleva metido en política desde hace cuarenta años. 165 00:08:50,480 --> 00:08:51,000 Según él, 166 00:08:51,080 --> 00:08:52,080 sería un error subestimar 167 00:08:52,160 --> 00:08:53,800 el impacto que este tipo de noticias falsas 168 00:08:53,880 --> 00:08:56,640 ejercen sobre la opinión y el voto de los estadounidenses. 169 00:08:58,840 --> 00:09:00,480 Lo que sucede hoy en política 170 00:09:00,560 --> 00:09:01,960 es que la gente consume información 171 00:09:02,040 --> 00:09:04,640 de un modo totalmente distinto a como lo hacíamos antes. 172 00:09:05,440 --> 00:09:07,520 Cuando yo empecé a organizar campañas electorales, 173 00:09:07,600 --> 00:09:09,240 en la época de Jimmy Carter 174 00:09:10,200 --> 00:09:12,920 nos conectábamos a las noticias a las seis y media de la mañana 175 00:09:13,600 --> 00:09:15,280 y atendíamos a tres canales a la vez; 176 00:09:16,160 --> 00:09:17,080 así era básicamente 177 00:09:17,160 --> 00:09:19,720 como se accedía a la información entonces en Estados Unidos. 178 00:09:20,640 --> 00:09:22,720 Hoy hay una avalancha constante de información, 179 00:09:23,360 --> 00:09:24,880 lo mismo en la televisión tradicional 180 00:09:24,960 --> 00:09:27,840 como en la televisión por cable y, sobre todo, en la red. 181 00:09:28,640 --> 00:09:29,640 Y ese consumo en línea 182 00:09:29,720 --> 00:09:31,160 está teniendo graves consecuencias, 183 00:09:31,240 --> 00:09:32,400 porque lo que está ocurriendo 184 00:09:32,480 --> 00:09:33,720 es que los medios legítimos 185 00:09:33,800 --> 00:09:36,440 acaban siendo suplantados por noticias falsas 186 00:09:36,920 --> 00:09:39,120 que ofrecen datos en apariencia reales y verdaderos, 187 00:09:39,200 --> 00:09:41,560 cuando lo cierto es que no tienen base alguna. 188 00:09:42,880 --> 00:09:43,600 De hecho, 189 00:09:43,680 --> 00:09:45,560 la mayoría de los que están detrás de todo esto 190 00:09:45,640 --> 00:09:46,400 son individuos 191 00:09:46,480 --> 00:09:49,120 que tratan de inclinar el resultado de las elecciones, 192 00:09:49,840 --> 00:09:51,760 introduciendo para ello una narrativa falsa 193 00:09:51,840 --> 00:09:53,120 en el flujo de la información. 194 00:09:53,760 --> 00:09:56,280 Por tanto, claro que resultan determinantes. 195 00:09:56,920 --> 00:09:58,760 Y, en el caso de unos comicios disputados, 196 00:09:58,840 --> 00:10:00,280 ni que decir tiene. 197 00:10:02,840 --> 00:10:03,840 Mentir se convirtió 198 00:10:03,920 --> 00:10:05,400 en la estrategia política por antonomasia, 199 00:10:05,760 --> 00:10:07,200 en un arma de manipulación masiva. 200 00:10:07,840 --> 00:10:09,280 No es fácil de creer, ¿verdad? 201 00:10:13,920 --> 00:10:14,920 Según Politifact 202 00:10:15,000 --> 00:10:16,400 un portal digital independiente 203 00:10:16,480 --> 00:10:18,120 consagrado a la verificación de hechos, 204 00:10:18,200 --> 00:10:19,160 solo el cuatro por ciento 205 00:10:19,240 --> 00:10:21,760 de las declaraciones vertidas por Donald Trump durante la campaña 206 00:10:21,840 --> 00:10:22,760 fueron ciertas. 207 00:10:25,480 --> 00:10:27,320 Al recurrir con tanta frecuencia a ellas, 208 00:10:27,400 --> 00:10:28,200 las mentiras de Trump 209 00:10:28,280 --> 00:10:30,160 no dejaban de circular entre sus partidarios. 210 00:10:30,880 --> 00:10:31,320 De hecho, 211 00:10:31,400 --> 00:10:34,160 acabaron convirtiéndose ellas mismas en una correa de transmisión. 212 00:10:37,800 --> 00:10:40,600 Solo hay que echar una ojeada al abanico de medios disponibles 213 00:10:40,680 --> 00:10:42,400 y fijarse en cuáles elige la gente. 214 00:10:42,880 --> 00:10:45,360 Los conservadores solo se informan a través de Fox News 215 00:10:45,440 --> 00:10:47,640 o sitios alternativos como Breitbart 216 00:10:47,720 --> 00:10:49,080 y eso es lo único que ven. 217 00:10:49,640 --> 00:10:50,520 Miran con recelo 218 00:10:50,600 --> 00:10:52,640 lo que ellos llaman los medios liberales de toda la vida, 219 00:10:53,000 --> 00:10:54,000 en los que no creen, 220 00:10:54,360 --> 00:10:55,480 tipo la C N N 221 00:10:55,560 --> 00:10:56,800 el New York Times 222 00:10:57,160 --> 00:10:58,200 o el Washington Post. 223 00:11:00,120 --> 00:11:03,200 Solo reciben las noticias a través de fuentes muy sesgadas, 224 00:11:04,400 --> 00:11:07,000 que es de donde bebe el mismo Trump. 225 00:11:07,800 --> 00:11:08,920 Sus votantes oyen algo 226 00:11:09,000 --> 00:11:12,120 de no sé qué teoría de la conspiración en Breitbart News 227 00:11:12,200 --> 00:11:13,400 o en la Fox; 228 00:11:15,040 --> 00:11:18,280 Trump lo oye también, lo cacarea y, entonces, 229 00:11:18,360 --> 00:11:19,640 aquellos votantes se dicen: 230 00:11:20,040 --> 00:11:21,240 esto lo escuché en las noticias 231 00:11:21,320 --> 00:11:24,560 y ahora de boca del Presidente Trump por lo que debe de ser verdad. 232 00:11:25,200 --> 00:11:27,520 Es como una cámara de eco muy difícil de romper, 233 00:11:27,880 --> 00:11:30,280 una espiral de falacias que no deja de retroalimentarse. 234 00:11:32,120 --> 00:11:34,000 Las mentiras no llegaron a ser refutadas. 235 00:11:34,080 --> 00:11:35,800 Bien al contrario, cobraron más fuerza. 236 00:11:37,400 --> 00:11:39,200 Impotente ante este círculo vicioso, 237 00:11:39,280 --> 00:11:41,120 la prensa tradicional fue dada de lado. 238 00:11:42,960 --> 00:11:44,320 Las campañas electorales 239 00:11:44,400 --> 00:11:46,760 se venían cubriendo de una determinada manera 240 00:11:46,840 --> 00:11:47,600 hasta ahora. 241 00:11:48,480 --> 00:11:51,120 Y esa manera no contemplaba en ningún momento 242 00:11:51,200 --> 00:11:53,560 la irrupción de alguien como Donald. 243 00:11:55,120 --> 00:11:56,880 Esa falta de respeto por la verdad 244 00:11:56,960 --> 00:11:58,320 que manifestaba Trump 245 00:11:58,680 --> 00:12:01,200 cogió por sorpresa a muchos periodistas, 246 00:12:02,040 --> 00:12:03,520 porque no estábamos acostumbrados. 247 00:12:04,600 --> 00:12:06,280 No, no estamos acostumbrados a que los políticos, 248 00:12:06,360 --> 00:12:07,440 o los jefes de prensa, 249 00:12:07,520 --> 00:12:08,960 mientan de forma tan descarada. 250 00:12:16,960 --> 00:12:18,560 Los medios hegemónicos de comunicación 251 00:12:18,640 --> 00:12:20,440 están en entredicho y, si ellos lo están, 252 00:12:20,520 --> 00:12:21,840 la verdad también lo está. 253 00:12:21,920 --> 00:12:23,240 Y si la verdad está en entredicho, 254 00:12:23,320 --> 00:12:25,480 se puede airear cualquier versión de la misma. 255 00:12:27,440 --> 00:12:29,440 Con sus mentiras descaradas en cada discurso, 256 00:12:29,520 --> 00:12:32,160 Donald Trump no solo acabó embaucando a su electorado, 257 00:12:32,920 --> 00:12:35,920 sino que también logró silenciar el lado más oscuro de su campaña. 258 00:12:41,840 --> 00:12:44,080 Porque el candidato republicano no era aquel hombre, 259 00:12:44,160 --> 00:12:45,800 solo ante el peligro, que decía ser. 260 00:12:48,000 --> 00:12:50,680 Una más que poderosa red movió los hilos en la sombra 261 00:12:51,360 --> 00:12:52,400 para imponer a toda costa 262 00:12:52,480 --> 00:12:54,960 sus ideas reaccionarias en Estados Unidos. 263 00:13:06,680 --> 00:13:07,960 «Sé que la corrupción 264 00:13:08,800 --> 00:13:10,080 ha alcanzado un nivel 265 00:13:10,600 --> 00:13:12,760 que nunca se había visto en nuestro país» 266 00:13:19,960 --> 00:13:22,080 Estamos en el ocho mil trescientos ochenta y tres 267 00:13:22,160 --> 00:13:23,480 de Wilshire Boulevard 268 00:13:23,560 --> 00:13:25,760 una de las zonas más distinguidas de Los Ángeles. 269 00:13:29,400 --> 00:13:30,680 Este edificio sin nombre 270 00:13:30,760 --> 00:13:32,520 es la sede desde la que un multimillonario 271 00:13:32,600 --> 00:13:34,600 dirigió en la sombra la campaña de Donald Trump. 272 00:13:37,320 --> 00:13:39,080 Detrás de estas ventanas, en el número mil, 273 00:13:39,160 --> 00:13:40,760 hay varias empresas que, a primera vista, 274 00:13:40,840 --> 00:13:42,080 no tienen nada que ver entre sí. 275 00:13:51,360 --> 00:13:53,000 La primera es Breitbart News 276 00:13:53,440 --> 00:13:56,080 la web de noticias falsas que apuesta claramente por Trump. 277 00:13:58,200 --> 00:14:00,120 La segunda se llama Glittering Steel 278 00:14:00,200 --> 00:14:02,920 y se trata de una pequeña productora audiovisual. 279 00:14:04,360 --> 00:14:06,600 Pero estas empresas solo tienen una cosa en común: 280 00:14:07,160 --> 00:14:08,520 ambas están vinculadas a un hombre 281 00:14:08,600 --> 00:14:11,000 del que el común de la gente jamás ha oído hablar. 282 00:14:12,160 --> 00:14:13,600 Un misterioso personaje. 283 00:14:16,800 --> 00:14:19,040 El hombre que está detrás de la victoria de Trump 284 00:14:19,120 --> 00:14:21,280 y cuyo nombre es Robert Mercer. 285 00:14:24,520 --> 00:14:25,400 Robert Mercer 286 00:14:25,480 --> 00:14:26,440 tiene setenta y un años, 287 00:14:26,880 --> 00:14:29,440 y es el director ejecutivo de una firma de fondos de cobertura, 288 00:14:30,160 --> 00:14:31,200 Renaissance Technologies 289 00:14:32,120 --> 00:14:35,760 en donde lleva escalando puestos desde 1993. 290 00:14:38,640 --> 00:14:39,760 Carole Cadwalladr 291 00:14:39,840 --> 00:14:42,040 lleva un año investigando a este ingeniero informático 292 00:14:42,120 --> 00:14:43,480 devenido millonario. 293 00:14:47,400 --> 00:14:51,680 Robert Mercer es un científico muy brillante. 294 00:14:53,800 --> 00:14:56,760 En los años sesenta, en el seno de I B M 295 00:14:57,880 --> 00:15:01,480 llevó a cabo un trabajo verdaderamente precursor 296 00:15:02,400 --> 00:15:04,560 en el campo del procesamiento del lenguaje natural, 297 00:15:05,080 --> 00:15:05,880 que viene a ser 298 00:15:05,960 --> 00:15:07,920 la base de la inteligencia artificial. 299 00:15:09,400 --> 00:15:10,440 Se empleó a fondo 300 00:15:10,520 --> 00:15:12,360 en desarrollar la traducción automática 301 00:15:12,440 --> 00:15:13,760 de un idioma a otro. 302 00:15:15,160 --> 00:15:16,480 Ese traductor de Google 303 00:15:17,000 --> 00:15:18,400 que no dejamos de utilizar 304 00:15:18,480 --> 00:15:20,680 es una consecuencia de su tarea. 305 00:15:22,680 --> 00:15:23,840 No cabe duda de que 306 00:15:23,920 --> 00:15:28,640 es uno de los ingenieros informáticos más brillantes de toda su generación. 307 00:15:29,920 --> 00:15:32,800 No era más que un tipo corriente de clase media 308 00:15:32,880 --> 00:15:35,120 desempeñando una labor profesional. 309 00:15:36,560 --> 00:15:40,320 Entonces, recibió una oferta de este fondo de cobertura 310 00:15:41,200 --> 00:15:42,760 llamado Renaissance Technologies 311 00:15:43,200 --> 00:15:44,640 y se fue a trabajar con ellos. 312 00:15:47,680 --> 00:15:49,560 A principios de la década de los noventa, 313 00:15:49,640 --> 00:15:51,400 Robert Mercer se despidió de I B M 314 00:15:51,480 --> 00:15:53,160 para incorporarse a un fondo de cobertura 315 00:15:53,240 --> 00:15:54,160 con sede en Nueva York, 316 00:15:54,760 --> 00:15:56,000 Reinassance Technologies. 317 00:15:56,520 --> 00:15:59,080 Allí aplicó sus métodos de cálculo al mercado de valores, 318 00:15:59,760 --> 00:16:01,240 para predecir sus fluctuaciones. 319 00:16:05,680 --> 00:16:07,200 En Reinassance Technologies 320 00:16:07,680 --> 00:16:09,560 fue pionero en el comercio algorítmico, 321 00:16:10,880 --> 00:16:11,600 que hoy en día 322 00:16:11,680 --> 00:16:13,160 es un campo muy explorado 323 00:16:13,680 --> 00:16:16,600 y está muy presente en las transacciones bursátiles. 324 00:16:24,880 --> 00:16:28,160 Renaissance vio algo que aún no está del todo claro, 325 00:16:28,920 --> 00:16:31,480 acerca de cómo multiplicar sus ganancias en el mercado, 326 00:16:32,120 --> 00:16:33,560 pero lo cierto es que se basaba 327 00:16:33,640 --> 00:16:36,480 en la aplicación de técnicas informáticas avanzadas 328 00:16:36,560 --> 00:16:37,760 al manejo de datos. 329 00:16:39,040 --> 00:16:41,880 A nadie le importaban los marcos teóricos de la economía 330 00:16:41,960 --> 00:16:44,040 o las herramientas del comercio tradicional. 331 00:16:46,560 --> 00:16:48,400 Si se trataba de invertir en trigo 332 00:16:49,360 --> 00:16:51,800 o en acciones de una compañía automovilística, 333 00:16:52,880 --> 00:16:56,480 lo de menos era que esas empresas se dedicaran al motor o al trigo. 334 00:16:57,520 --> 00:17:00,200 Solo había que observar el rendimiento de ese mercado 335 00:17:00,280 --> 00:17:02,000 de futuros o de esas acciones. 336 00:17:02,560 --> 00:17:05,120 Y la clave era verlo todo como un conjunto de números. 337 00:17:06,600 --> 00:17:08,440 Al aplicar sus herramientas matemáticas, 338 00:17:08,520 --> 00:17:09,120 Robert Mercer 339 00:17:09,200 --> 00:17:11,000 revolucionó los métodos de inversión 340 00:17:11,080 --> 00:17:12,320 de Renaissance Technologies 341 00:17:12,400 --> 00:17:14,000 y convirtió a este fondo de riesgo 342 00:17:14,080 --> 00:17:16,520 en el más rentable del mundo en tan solo diez años. 343 00:17:19,080 --> 00:17:21,200 Mercer amasó una fortuna en Renaissance 344 00:17:21,280 --> 00:17:23,080 porque invirtió su propio dinero 345 00:17:23,160 --> 00:17:26,880 y el rendimiento de la firma fue extraordinario. 346 00:17:27,760 --> 00:17:29,040 Si cada año aumenta su valor 347 00:17:29,120 --> 00:17:30,760 un treinta o treinta y cinco por ciento, 348 00:17:30,840 --> 00:17:32,440 te haces rico rápidamente. 349 00:17:35,480 --> 00:17:38,400 De modo que Robert Mercer se hizo inmensamente rico. 350 00:17:38,480 --> 00:17:40,000 También es una persona muy reservada, 351 00:17:40,080 --> 00:17:41,400 que casi nunca habla en público. 352 00:17:43,160 --> 00:17:44,200 Sebastian Mallaby 353 00:17:44,280 --> 00:17:46,400 es el único periodista que ha logrado entrevistarlo. 354 00:17:47,040 --> 00:17:48,040 Fue en 2008, 355 00:17:48,120 --> 00:17:50,800 cuando estaba escribiendo su libro sobre los fondos de cobertura, 356 00:17:50,880 --> 00:17:52,680 Más dinero que Dios. 357 00:17:55,400 --> 00:17:56,440 Fui a ver a Mercer 358 00:17:56,520 --> 00:17:57,920 cuando estaba escribiendo mi libro. 359 00:17:58,920 --> 00:18:00,560 Me pareció una persona tímida, 360 00:18:00,640 --> 00:18:02,720 por encima de cualquier otra consideración. 361 00:18:03,360 --> 00:18:06,160 No se atrevía a mirarte a los ojos y, en un momento determinado, 362 00:18:06,720 --> 00:18:07,360 me confesó 363 00:18:07,440 --> 00:18:08,480 que lo que más feliz le haría 364 00:18:08,560 --> 00:18:10,920 sería poder ir por la vida sin tener que hablar con nadie, 365 00:18:12,040 --> 00:18:14,080 pues prefería la compañía de los gatos 366 00:18:14,720 --> 00:18:16,040 antes que la de las personas. 367 00:18:19,920 --> 00:18:20,800 En fin, 368 00:18:21,200 --> 00:18:22,120 suele ser una pauta 369 00:18:22,200 --> 00:18:23,880 en los científicos de la computación, 370 00:18:24,760 --> 00:18:25,760 que confían mucho más 371 00:18:25,840 --> 00:18:27,960 en los símbolos abstractos de su pantalla 372 00:18:29,320 --> 00:18:30,840 que en el resto de la gente. 373 00:18:31,520 --> 00:18:33,960 No todos los informáticos son así, pero él sí lo era. 374 00:18:36,160 --> 00:18:38,720 Bob Mercer rehuía el trato con los demás... 375 00:18:38,800 --> 00:18:40,760 y también la atención de los medios. 376 00:18:42,400 --> 00:18:44,880 Ni siquiera es fácil encontrar fotos de él en Google. 377 00:18:45,840 --> 00:18:48,000 Y las pocas que hay son siempre las mismas. 378 00:18:49,240 --> 00:18:51,320 Existe asimismo un vídeo de escasa calidad, 379 00:18:51,400 --> 00:18:55,160 que muestra el único discurso que ha dado en público, el año 2014, 380 00:18:55,240 --> 00:18:57,200 durante una ceremonia en su honor. 381 00:18:58,960 --> 00:19:02,200 «Me enteré, después de aceptar este premio, 382 00:19:03,920 --> 00:19:06,960 de que tenía que hacer una alocución sobre esto y lo otro, 383 00:19:07,040 --> 00:19:10,120 durante una hora..., que, por cierto, 384 00:19:11,080 --> 00:19:13,800 es más de lo que yo normalmente hablo al cabo de un mes». 385 00:19:18,840 --> 00:19:20,120 Como multimillonario que era, 386 00:19:20,200 --> 00:19:20,800 Robert Mercer 387 00:19:20,880 --> 00:19:22,720 podía haberse dedicado tranquilamente 388 00:19:22,800 --> 00:19:24,240 a disfrutar de su nueva fortuna. 389 00:19:25,520 --> 00:19:26,520 Sin embargo, 390 00:19:26,600 --> 00:19:29,240 el antiguo informático también tenía las ideas muy claras 391 00:19:29,320 --> 00:19:31,200 acerca de cómo debía marchar el país. 392 00:19:33,040 --> 00:19:35,120 Así que tomó la decisión de invertir su dinero 393 00:19:35,200 --> 00:19:37,920 en promover esas ideas y, lo que es más importante, 394 00:19:38,000 --> 00:19:39,960 en implantarlas. 395 00:19:43,880 --> 00:19:46,720 El sistema político actual en Estados Unidos hace aguas, 396 00:19:47,320 --> 00:19:48,280 debido a todo ese dinero 397 00:19:48,360 --> 00:19:50,200 de los grupos de presión que inunda las campañas. 398 00:19:51,120 --> 00:19:52,200 Quiero decir que estos grupos 399 00:19:52,280 --> 00:19:54,080 están vinculados a una agenda política. 400 00:19:55,080 --> 00:19:56,080 Si eres dueño, por ejemplo, 401 00:19:56,160 --> 00:19:57,200 de una compañía petrolera 402 00:19:57,280 --> 00:19:59,720 y quieres seguir perforando en busca de combustible fósil, 403 00:20:00,400 --> 00:20:02,840 o si eres de los que contamina y no quieres dejar de hacerlo, 404 00:20:03,480 --> 00:20:06,000 prestas tu apoyo a los políticos que defienden tus intereses. 405 00:20:07,760 --> 00:20:09,000 Esos políticos que dicen, por ejemplo, 406 00:20:09,080 --> 00:20:10,160 que el cambio climático 407 00:20:10,240 --> 00:20:12,240 no tiene nada que ver con la actividad humana. 408 00:20:13,720 --> 00:20:14,760 Lo dicen públicamente 409 00:20:14,840 --> 00:20:17,920 para proteger los intereses de quienes financian sus campañas. 410 00:20:20,720 --> 00:20:21,720 Robert Mercer 411 00:20:21,800 --> 00:20:23,400 tenía su propia organización benéfica: 412 00:20:23,480 --> 00:20:24,960 la Fundación de la Familia Mercer 413 00:20:25,040 --> 00:20:26,560 dirigida por su hija, Rebekah. 414 00:20:29,360 --> 00:20:32,160 Pero ¿cuáles eran exactamente esas ideas que quería propugnar? 415 00:20:35,880 --> 00:20:37,200 Es difícil saberlo, 416 00:20:37,480 --> 00:20:38,480 porque Robert Mercer 417 00:20:38,560 --> 00:20:40,600 nunca expresa sus opiniones en público. 418 00:20:45,160 --> 00:20:46,120 Nunca se sabe 419 00:20:46,200 --> 00:20:48,240 qué es lo que pasa por la cabeza de Robert Mercer 420 00:20:48,560 --> 00:20:50,240 así que hay que mirar qué cosas financia. 421 00:20:50,600 --> 00:20:52,880 Si uno sigue la pista del dinero, se puede hacer una idea. 422 00:20:55,160 --> 00:20:57,440 Ya que no podemos saber en qué piensa Robert Mercer 423 00:20:57,520 --> 00:20:59,680 vamos a tratar de averiguar en qué gasta su dinero. 424 00:21:00,960 --> 00:21:03,120 Podemos seguir el rastro de los documentos fiscales, 425 00:21:03,200 --> 00:21:05,280 las declaraciones de la renta de la fundación, 426 00:21:05,360 --> 00:21:08,280 comprendidas entre el año 2012 y el 2015. 427 00:21:11,040 --> 00:21:14,120 Mercer ha subvencionado institutos y lobbies reaccionarios. 428 00:21:15,840 --> 00:21:17,880 Entre ellos, la Fundación Heritage 429 00:21:17,960 --> 00:21:20,800 que trata de abolir los impuestos y la regulación económica. 430 00:21:21,920 --> 00:21:23,520 Un millón y medio de dólares. 431 00:21:25,000 --> 00:21:27,400 El Centro de Investigaciones de medios de comunicación, 432 00:21:27,480 --> 00:21:28,040 que lucha 433 00:21:28,120 --> 00:21:30,240 contra los tendenciosos medios de comunicación de izquierdas. 434 00:21:30,840 --> 00:21:31,920 Doce millones de dólares. 435 00:21:33,040 --> 00:21:35,240 El Instituto para la Responsabilidad Gubernamental, 436 00:21:35,320 --> 00:21:36,760 que documenta la corrupción estatal 437 00:21:36,840 --> 00:21:38,760 y publica libros contra Hillary Clinton. 438 00:21:39,320 --> 00:21:40,960 Tres coma siete millones de dólares. 439 00:21:42,400 --> 00:21:43,440 El Instituto Heartland 440 00:21:43,520 --> 00:21:45,760 que ampara todas las teorías de los escépticos 441 00:21:45,840 --> 00:21:47,040 sobre el cambio climático. 442 00:21:47,360 --> 00:21:48,720 Dos coma ocho millones de dólares. 443 00:21:49,520 --> 00:21:50,040 En Nueva York, 444 00:21:50,120 --> 00:21:51,120 pagó incluso un anuncio 445 00:21:51,200 --> 00:21:53,440 en el que se denunciaba la construcción de una mezquita 446 00:21:53,520 --> 00:21:55,240 en las inmediaciones de la Zona Cero. 447 00:21:55,760 --> 00:21:58,040 En el plazo de dos años, según el Washington Post 448 00:21:58,440 --> 00:21:59,000 Robert Mercer 449 00:21:59,080 --> 00:22:00,840 se convirtió en uno de los diez multimillonarios 450 00:22:00,920 --> 00:22:02,640 con más influencia en la política. 451 00:22:03,480 --> 00:22:05,480 Nuestro sistema está corrupto de cabo a rabo, 452 00:22:05,560 --> 00:22:07,880 por culpa del dinero destinado a los tratos de favor 453 00:22:07,960 --> 00:22:10,280 que anega la campaña y afecta a todos los niveles. 454 00:22:12,000 --> 00:22:13,320 Pero, aunque el multimillonario 455 00:22:13,400 --> 00:22:15,320 podía gastar ingentes cantidades de dinero 456 00:22:15,400 --> 00:22:17,280 en apoyar sus particulares causas, 457 00:22:17,360 --> 00:22:19,000 aún tenía que encarar un obstáculo: 458 00:22:19,680 --> 00:22:21,800 muchos juzgaban sus ideas como demasiado extremas 459 00:22:21,880 --> 00:22:23,440 y eran desaprobadas por los medios. 460 00:22:24,360 --> 00:22:25,360 Para llevarlas a la práctica 461 00:22:25,440 --> 00:22:27,760 necesitaba contar con su propio medio de comunicación. 462 00:22:29,360 --> 00:22:31,120 En 2011, Breitbart News 463 00:22:31,200 --> 00:22:32,680 la cabecera digital de la derecha, 464 00:22:32,760 --> 00:22:35,160 estaba pasando serios apuros económicos. 465 00:22:37,080 --> 00:22:37,920 Robert Mercer 466 00:22:38,000 --> 00:22:38,960 vio su oportunidad. 467 00:22:39,360 --> 00:22:41,720 Adquirió Breitbart por diez millones de dólares. 468 00:22:46,080 --> 00:22:47,640 Colocó al frente a su mano derecha, 469 00:22:47,720 --> 00:22:48,760 un hombre en la sombra, 470 00:22:48,840 --> 00:22:51,560 que hallaremos en todas las fases de esta investigación. 471 00:22:53,440 --> 00:22:55,040 Un tal Stephen Bannon. 472 00:22:55,960 --> 00:22:57,440 Stephen K. Bannon 473 00:22:58,600 --> 00:23:01,000 que había sido banquero de inversión en Goldman Sachs 474 00:23:01,400 --> 00:23:02,400 y a finales de los noventa 475 00:23:02,480 --> 00:23:04,280 se recicló como productor de Hollywood. 476 00:23:05,080 --> 00:23:07,000 Quería hacer películas y series de televisión 477 00:23:07,080 --> 00:23:10,720 para difundir su ideario político, sus ideas ultraconservadoras. 478 00:23:12,680 --> 00:23:13,720 En una conferencia, 479 00:23:13,800 --> 00:23:15,560 Bannon es presentado a Robert Mercer. 480 00:23:16,480 --> 00:23:17,920 Ambos se caen bien de inmediato. 481 00:23:18,520 --> 00:23:19,920 Bannon se convierte enseguida 482 00:23:20,000 --> 00:23:21,520 en la eminencia gris de Robert Mercer. 483 00:23:23,240 --> 00:23:24,400 Mercer y Bannon 484 00:23:24,480 --> 00:23:26,360 mantienen unos vínculos muy estrechos. 485 00:23:27,600 --> 00:23:30,400 El hecho de que Mercer se asociase con alguien como Bannon 486 00:23:30,480 --> 00:23:31,160 da una pista 487 00:23:31,240 --> 00:23:33,520 sobre cuáles son sus intereses personales. 488 00:23:38,280 --> 00:23:39,320 En cuestión de meses, 489 00:23:39,400 --> 00:23:41,200 Bannon haría de Breitbart News 490 00:23:41,280 --> 00:23:42,240 una máquina de guerra 491 00:23:42,320 --> 00:23:44,600 al servicio de las ideas más reaccionarias. 492 00:23:47,960 --> 00:23:50,120 Ese había sido el objetivo de Breitbart 493 00:23:50,200 --> 00:23:52,640 durante muchos años y, con alguien como Bannon 494 00:23:53,240 --> 00:23:55,240 que lo afirmaba públicamente, ya no cabía duda: 495 00:23:56,160 --> 00:23:57,840 querían enfrentarse a las instituciones 496 00:23:57,920 --> 00:24:01,120 y tratar de desmantelar el gobierno de Estados Unidos 497 00:24:01,560 --> 00:24:02,880 para cumplir con su agenda, 498 00:24:03,320 --> 00:24:04,040 la cual pasa 499 00:24:04,120 --> 00:24:06,240 por cambiar de arriba abajo esta nación, 500 00:24:06,320 --> 00:24:09,520 sembrando un grado de división entre la sociedad, 501 00:24:11,080 --> 00:24:13,400 que no se había visto desde la guerra civil. 502 00:24:15,440 --> 00:24:16,440 Robert Mercer 503 00:24:16,520 --> 00:24:18,000 tenía ya su propia plataforma política 504 00:24:18,080 --> 00:24:18,800 en la red. 505 00:24:19,280 --> 00:24:21,440 Para airear sus ideas solo le faltaba una cosa: 506 00:24:22,440 --> 00:24:23,600 un candidato. 507 00:24:27,080 --> 00:24:30,400 En 2015, comenzó apoyando al senador de Texas 508 00:24:30,480 --> 00:24:31,680 Ted Cruz, 509 00:24:31,760 --> 00:24:32,640 el mascarón de proa 510 00:24:32,720 --> 00:24:34,240 de la extrema derecha estadounidense. 511 00:24:36,720 --> 00:24:37,480 Sin embargo, 512 00:24:37,560 --> 00:24:39,000 tras la sorprendente victoria de Trump 513 00:24:39,080 --> 00:24:40,440 en las primarias republicanas, 514 00:24:40,520 --> 00:24:41,880 apostó por este último. 515 00:24:45,240 --> 00:24:47,960 Mercer puso en marcha el comité de acción política 516 00:24:48,040 --> 00:24:50,080 «Hagamos de Estados Unidos el número uno», 517 00:24:50,160 --> 00:24:52,400 al que donó quince millones de dólares. 518 00:24:53,840 --> 00:24:55,360 Pero Mercer no quería quedarse ahí: 519 00:24:56,040 --> 00:24:57,080 su plan era hacerse cargo 520 00:24:57,160 --> 00:24:59,320 de toda la campaña electoral de Donald Trump. 521 00:25:07,040 --> 00:25:08,520 En julio de 2016, 522 00:25:08,600 --> 00:25:11,160 tuvo lugar una cena en un lujoso hotel de Nueva York. 523 00:25:13,000 --> 00:25:14,200 Allí se juntaron, entre otros, 524 00:25:14,280 --> 00:25:16,240 Rebekah, la hija de Robert Mercer 525 00:25:16,320 --> 00:25:17,920 y el mismísimo Donald Trump. 526 00:25:21,640 --> 00:25:23,040 En el transcurso de la velada, 527 00:25:23,120 --> 00:25:24,840 Rebekah Mercer fue muy franca: 528 00:25:25,360 --> 00:25:26,200 la campaña de Trump 529 00:25:26,280 --> 00:25:28,280 era algo caótico y poco profesional. 530 00:25:28,360 --> 00:25:30,720 Si quería ganar, tenían que cambiar mucho las cosas. 531 00:25:32,200 --> 00:25:34,040 Le ofreció apoyo financiero y mediático. 532 00:25:34,760 --> 00:25:35,320 A cambio, 533 00:25:35,400 --> 00:25:36,840 le exigió al candidato republicano 534 00:25:36,920 --> 00:25:38,400 que reemplazara a su jefe de campaña 535 00:25:38,480 --> 00:25:42,080 por el hombre de confianza de la familia, Stephen Bannon. 536 00:25:44,480 --> 00:25:46,400 La principal responsable del comité 537 00:25:46,480 --> 00:25:48,240 «Hagamos de Estados Unidos el número uno», 538 00:25:48,320 --> 00:25:49,320 Rebekah Mercer 539 00:25:49,400 --> 00:25:51,680 cuya familia también está detrás de Superpac, 540 00:25:51,760 --> 00:25:53,320 pudo influir en la decisión de Trump 541 00:25:53,400 --> 00:25:55,480 de contratar a Steve Bannon como jefe de campaña. 542 00:25:56,640 --> 00:25:58,800 Al final de la cena, todo estaba ya decidido. 543 00:26:00,040 --> 00:26:01,360 Steve Bannon se convertiría 544 00:26:01,440 --> 00:26:03,680 en el director de campaña de Donald Trump. 545 00:26:05,040 --> 00:26:06,040 Kellyanne Conway 546 00:26:06,120 --> 00:26:08,160 que estaba al frente del comité de acción política 547 00:26:08,240 --> 00:26:09,360 a favor de Ted Cruz, 548 00:26:09,440 --> 00:26:10,640 pasó a ser la número dos. 549 00:26:14,760 --> 00:26:15,760 David Bossie, 550 00:26:15,840 --> 00:26:17,280 un incondicional de la familia Mercer 551 00:26:17,360 --> 00:26:18,520 ocupó el número tres. 552 00:26:21,360 --> 00:26:22,320 A Robert Mercer 553 00:26:22,400 --> 00:26:23,760 le había salido una jugada redonda. 554 00:26:24,520 --> 00:26:25,520 Su trío de elegidos 555 00:26:25,600 --> 00:26:27,760 sería el único encargado de dirigir desde entonces 556 00:26:27,840 --> 00:26:30,600 los destinos de la campaña del candidato republicano. 557 00:26:34,760 --> 00:26:36,800 Cuando los Mercer apoyan a un candidato, 558 00:26:37,640 --> 00:26:38,560 lo hacen esperando 559 00:26:38,640 --> 00:26:40,400 a que este responda a sus necesidades, 560 00:26:40,480 --> 00:26:42,360 tanto en la campaña electoral 561 00:26:42,440 --> 00:26:44,280 como si finalmente es elegido. 562 00:26:45,960 --> 00:26:48,560 Es razonable suponer que los Mercer 563 00:26:49,520 --> 00:26:51,080 pretendieran que el nuevo Presidente 564 00:26:51,160 --> 00:26:52,400 mostrara sensibilidad 565 00:26:52,480 --> 00:26:56,480 con respecto a sus peticiones y sus preferencias políticas. 566 00:26:59,560 --> 00:27:01,040 El plan de Robert Mercer 567 00:27:01,120 --> 00:27:03,040 de tomar el control de la campaña de Trump 568 00:27:03,120 --> 00:27:05,480 se saldó con éxito, o, bueno, casi. 569 00:27:06,760 --> 00:27:07,760 Cometió un error. 570 00:27:10,640 --> 00:27:11,680 Esto es lo que descubrimos 571 00:27:11,760 --> 00:27:13,040 cuando analizamos los libros 572 00:27:13,120 --> 00:27:14,720 de la campaña oficial de Donald Trump. 573 00:27:15,520 --> 00:27:17,800 Cada una de estas líneas corresponde a un gasto. 574 00:27:19,640 --> 00:27:20,320 Sin embargo, 575 00:27:20,400 --> 00:27:22,200 a lo largo de los cinco meses en los que estuvo al frente, 576 00:27:22,280 --> 00:27:24,920 no hay rastro de remuneración alguna para Steve Bannon. 577 00:27:26,440 --> 00:27:27,360 Sin embargo, 578 00:27:27,440 --> 00:27:28,680 si nos fijamos en los pagos realizados 579 00:27:28,760 --> 00:27:30,920 por el comité de acción política de Robert Mercer 580 00:27:31,000 --> 00:27:33,440 observamos que hay un nombre que se repite varias veces: 581 00:27:34,120 --> 00:27:35,040 Glittering Steel 582 00:27:35,360 --> 00:27:36,360 una productora de vídeos. 583 00:27:37,720 --> 00:27:38,360 En total, 584 00:27:38,440 --> 00:27:39,640 la empresa recibió del comité, 585 00:27:39,960 --> 00:27:41,920 trescientos dos mil quinientos dólares (302.500) 586 00:27:42,000 --> 00:27:43,360 en el plazo de cinco meses. 587 00:27:44,080 --> 00:27:45,720 ¿Y quién dirigía esta empresa? 588 00:27:46,080 --> 00:27:47,960 ¡Otra vez Steve Bannon! 589 00:27:49,360 --> 00:27:51,040 Lo que significa que ingresó sus emolumentos 590 00:27:51,120 --> 00:27:52,680 por su trabajo en la campaña de Trump 591 00:27:52,760 --> 00:27:54,280 a través de Glittering Steel. 592 00:27:55,080 --> 00:27:58,800 Por tanto, se trataría de una financiación ilegal. 593 00:28:00,120 --> 00:28:01,080 Y esta es una tesis 594 00:28:01,160 --> 00:28:02,800 que comparte el Centro Legal de Campañas, 595 00:28:02,880 --> 00:28:05,200 que decidió presentar una queja formal. 596 00:28:19,440 --> 00:28:20,320 Steve Bannon 597 00:28:20,400 --> 00:28:21,800 tuvo que enfrentarse a una multa 598 00:28:21,880 --> 00:28:24,160 y a una investigación del Departamento de Justicia, 599 00:28:24,240 --> 00:28:26,240 que podría acabar con él entre rejas. 600 00:28:31,160 --> 00:28:32,200 Así que creemos 601 00:28:32,280 --> 00:28:33,600 que es posible que el Superpac 602 00:28:33,680 --> 00:28:35,720 «Hagamos de Estados Unidos el número uno» 603 00:28:35,800 --> 00:28:38,240 estaba sufragando el trabajo de Steve Bannon 604 00:28:38,320 --> 00:28:39,680 para la campaña de Trump 605 00:28:40,280 --> 00:28:41,280 emitiéndole los pagos 606 00:28:41,360 --> 00:28:42,400 a través de la empresa 607 00:28:42,480 --> 00:28:44,680 de responsabilidad limitada Glittering Steel 608 00:28:45,120 --> 00:28:46,040 que es a la vez 609 00:28:46,120 --> 00:28:50,360 una consultoría y una productora audiovisual radicada en California. 610 00:28:50,440 --> 00:28:53,800 Exactamente en la misma dirección que las firmas consultoras de Bannon. 611 00:28:56,240 --> 00:28:57,640 Una dirección que ya conocemos: 612 00:28:58,200 --> 00:29:00,800 el ocho mil trescientos ochenta y tres de Wilshire Boulevard 613 00:29:01,080 --> 00:29:01,880 en Los Ángeles. 614 00:29:03,240 --> 00:29:04,240 Se trata del edificio 615 00:29:04,320 --> 00:29:06,080 que alberga la sede de Breitbart News 616 00:29:06,160 --> 00:29:07,560 y también de Glittering Steel. 617 00:29:09,040 --> 00:29:10,280 Aquí fue donde se desarrolló 618 00:29:10,360 --> 00:29:13,040 la parte más turbia de la campaña presidencial de Donald Trump 619 00:29:13,120 --> 00:29:16,080 que quizá alcanza unas dimensiones difíciles de imaginar. 620 00:29:18,480 --> 00:29:21,000 Porque el apartamento mil guarda todavía más secretos. 621 00:29:22,440 --> 00:29:24,080 En él se cobija otra compañía, 622 00:29:24,520 --> 00:29:26,160 la sucursal de una empresa británica 623 00:29:26,240 --> 00:29:27,720 que emplea métodos misteriosos 624 00:29:27,800 --> 00:29:30,360 para manipular a la opinión pública estadounidense. 625 00:29:57,200 --> 00:29:58,320 A orillas del Támesis 626 00:29:58,400 --> 00:29:59,400 fue donde se jugó en parte 627 00:29:59,480 --> 00:30:01,760 la última elección presidencial de Estados Unidos. 628 00:30:02,720 --> 00:30:04,240 En el mismo corazón de Londres. 629 00:30:07,840 --> 00:30:09,840 En el cuartel general de una empresa, 630 00:30:09,920 --> 00:30:11,720 desconocida por el común de los mortales, 631 00:30:11,800 --> 00:30:13,480 llamada Grupo S C L 632 00:30:13,560 --> 00:30:14,560 las siglas en inglés 633 00:30:14,640 --> 00:30:16,400 del Laboratorio de Comunicación Estratégica. 634 00:30:19,760 --> 00:30:20,960 Dentro de estas oficinas, 635 00:30:21,040 --> 00:30:22,240 hay investigadores dedicados 636 00:30:22,320 --> 00:30:24,360 a recopilar y analizar millones de datos 637 00:30:24,440 --> 00:30:26,880 sobre la gente de a pie para conocerla mejor. 638 00:30:29,200 --> 00:30:30,040 ¿Su objetivo? 639 00:30:30,520 --> 00:30:33,320 Determinar qué impulsa el comportamiento de los individuos 640 00:30:33,400 --> 00:30:35,240 para influir mejor sobre ellos. 641 00:30:41,800 --> 00:30:45,240 S C L es una empresa que se creó hace veinticinco años. 642 00:30:47,080 --> 00:30:48,280 Tiene varias ramas: 643 00:30:49,040 --> 00:30:52,200 una rama militar, otra comercial, otra de análisis 644 00:30:52,280 --> 00:30:54,240 y otra más enfocada a las elecciones. 645 00:30:55,360 --> 00:30:56,720 Su herramienta es la psicología: 646 00:30:57,320 --> 00:30:58,520 se basan en la psicología 647 00:30:58,600 --> 00:31:00,360 para tratar de influir en las personas. 648 00:31:01,920 --> 00:31:03,960 Son expertos en guerra psicológica, 649 00:31:04,880 --> 00:31:07,040 hablando en terminología militar. 650 00:31:08,120 --> 00:31:11,280 Es una disciplina académica con todas las de la ley, 651 00:31:11,800 --> 00:31:13,720 y puede desarrollar diferentes usos. 652 00:31:16,560 --> 00:31:17,800 De hecho, en su página web, 653 00:31:17,880 --> 00:31:20,240 la empresa ofrece sus servicios con suma claridad. 654 00:31:33,040 --> 00:31:35,240 Entre sus clientes se incluyen la OTAN, 655 00:31:35,320 --> 00:31:36,960 el Ministerio de Defensa británico, 656 00:31:37,040 --> 00:31:39,280 la Agencia de Seguridad Nacional estadounidense 657 00:31:39,360 --> 00:31:41,560 o el Departamento de Estado de Estados Unidos. 658 00:31:42,480 --> 00:31:43,640 A ellos, por poner un ejemplo, 659 00:31:43,720 --> 00:31:45,560 S C L los ayudó a identificar 660 00:31:45,640 --> 00:31:47,960 quiénes eran los principales líderes en Afganistán, 661 00:31:48,040 --> 00:31:50,280 facilitando así la intervención de Estados Unidos. 662 00:31:51,920 --> 00:31:52,960 En otra ocasión, 663 00:31:53,040 --> 00:31:55,000 S C L organizó una campaña de comunicación 664 00:31:55,080 --> 00:31:57,000 para extender las vacunas en Ghana. 665 00:31:59,240 --> 00:32:00,480 Pero ahí no queda la cosa. 666 00:32:00,960 --> 00:32:04,160 Detrás de la parte más visible, aguardan otro tipo de prácticas. 667 00:32:07,160 --> 00:32:11,000 Es una forma de zarandear a la gente ―esa es la palabra― 668 00:32:11,600 --> 00:32:13,600 para que alcancen mejores resultados. 669 00:32:14,360 --> 00:32:17,240 Pero también puede utilizarse para manipular a las personas 670 00:32:17,800 --> 00:32:19,120 sin que estas se den cuenta. 671 00:32:19,800 --> 00:32:21,280 Es un método que puede ser empleado 672 00:32:21,360 --> 00:32:24,240 ―y, de hecho, lo ha sido― por regímenes autoritarios. 673 00:32:25,960 --> 00:32:27,960 Detrás de tanta prosa enrevesada, 674 00:32:28,040 --> 00:32:29,200 está claro que S C L 675 00:32:29,280 --> 00:32:31,600 ofrece servicios de manipulación de la opinión pública. 676 00:32:32,920 --> 00:32:34,320 Por ejemplo, la firma se jacta 677 00:32:34,400 --> 00:32:36,880 de haber organizado protestas en Nigeria en 2007, 678 00:32:36,960 --> 00:32:38,840 con ánimo de decantar las elecciones. 679 00:32:42,560 --> 00:32:43,920 S C L intervino también 680 00:32:44,000 --> 00:32:45,920 en unos comicios en la isla de San Vicente, 681 00:32:46,000 --> 00:32:46,720 en el Caribe, 682 00:32:46,800 --> 00:32:48,760 de una forma bastante sorprendente. 683 00:32:50,640 --> 00:32:53,440 S C L ayudó a un candidato a ganar las elecciones. 684 00:32:54,160 --> 00:32:56,680 Contrataron a gente para llenar las paredes de grafitis, 685 00:32:56,760 --> 00:33:00,000 inventándose así un problema con la juventud de aquel país, 686 00:33:00,080 --> 00:33:03,280 un problema para el que el candidato tenía ya una solución orquestada. 687 00:33:04,080 --> 00:33:04,560 Así pues, 688 00:33:04,640 --> 00:33:05,440 crearon un problema 689 00:33:05,520 --> 00:33:07,600 solo para poner de manifiesto que tenía solución. 690 00:33:10,240 --> 00:33:11,760 En resumen, S C L 691 00:33:11,840 --> 00:33:14,360 organiza estrategias de manipulación a la carta. 692 00:33:15,800 --> 00:33:17,280 Y, con el desarrollo de internet, 693 00:33:17,360 --> 00:33:20,120 gracias a los miles de millones de datos que circulan por la red, 694 00:33:20,520 --> 00:33:23,120 su negocio empezó a adquirir una dimensión completamente nueva. 695 00:33:24,640 --> 00:33:28,080 De pronto, en torno a 2012, 696 00:33:28,920 --> 00:33:31,040 se dieron cuenta del tremendo potencial 697 00:33:32,000 --> 00:33:34,320 que ofrecían los datos informáticos. 698 00:33:36,840 --> 00:33:38,800 Para tomar posición en este nuevo mercado, 699 00:33:38,880 --> 00:33:40,080 el Grupo S C L 700 00:33:40,160 --> 00:33:41,840 creó una filial en Estados Unidos 701 00:33:41,920 --> 00:33:43,960 llamada Cambridge Analytica. 702 00:33:46,680 --> 00:33:47,920 La idea era ocultarse 703 00:33:48,000 --> 00:33:49,960 detrás de una nueva estructura empresarial, 704 00:33:50,040 --> 00:33:52,240 haciéndose pasar por una nueva empresa británica 705 00:33:52,320 --> 00:33:53,720 Cambridge Analytica 706 00:33:53,800 --> 00:33:55,440 que venía a ofrecer 707 00:33:55,520 --> 00:33:56,960 prácticamente los mismos servicios que su matriz. 708 00:33:59,320 --> 00:34:00,920 Para crear Cambridge Analytica 709 00:34:01,000 --> 00:34:02,080 S C L se asoció 710 00:34:02,160 --> 00:34:03,880 con un multimillonario estadounidense. 711 00:34:04,560 --> 00:34:06,240 Y no cualquier multimillonario, 712 00:34:06,320 --> 00:34:08,200 sino un matemático especializado en datos: 713 00:34:08,960 --> 00:34:10,080 Robert Mercer. 714 00:34:12,280 --> 00:34:14,160 Y, en el cargo de vicepresidente de la firma, 715 00:34:14,240 --> 00:34:16,120 nos encontramos con su fiel escudero: 716 00:34:16,200 --> 00:34:17,400 Steve Bannon. 717 00:34:20,160 --> 00:34:22,280 Desde el principio, tuvieron un objetivo claro: 718 00:34:22,800 --> 00:34:23,880 nada menos que revolucionar 719 00:34:23,960 --> 00:34:27,120 la forma en que se habían estado llevando las campañas electorales. 720 00:34:28,960 --> 00:34:30,960 A pesar de haberle solicitado en repetidas ocasiones 721 00:34:31,040 --> 00:34:32,200 una entrevista, 722 00:34:32,280 --> 00:34:33,280 Cambridge Analytica 723 00:34:33,360 --> 00:34:34,400 se ha negado a hablar con nosotros. 724 00:34:35,240 --> 00:34:36,120 Así que, 725 00:34:36,200 --> 00:34:37,640 para entender a qué se dedican exactamente, 726 00:34:37,720 --> 00:34:38,720 hicimos algo muy simple: 727 00:34:39,440 --> 00:34:40,480 fijarnos en sus anuncios. 728 00:34:43,720 --> 00:34:45,520 Las campañas electorales han cambiado. 729 00:34:46,080 --> 00:34:48,760 Ya no se trata de emitir muchas veces un anuncio por televisión, 730 00:34:49,320 --> 00:34:51,280 de enviar muchas cartas o de gastar mucho dinero. 731 00:34:52,200 --> 00:34:54,480 Se trata de invertir el dinero de forma inteligente. 732 00:34:55,160 --> 00:34:56,120 En el mundo de hoy, 733 00:34:56,200 --> 00:34:58,200 en el que las campañas son cada vez más costosas 734 00:34:58,280 --> 00:35:01,280 y las elecciones se ganan por mínimas pero cruciales diferencias, 735 00:35:01,720 --> 00:35:03,160 es más importante que nunca 736 00:35:03,240 --> 00:35:06,680 que llegue a la persona correcta en el momento correcto. 737 00:35:07,760 --> 00:35:09,320 Ahí es donde pueden ser determinantes 738 00:35:09,400 --> 00:35:11,440 las revolucionarias técnicas en el empleo de datos 739 00:35:11,880 --> 00:35:13,480 que aporta Cambridge Analytica. 740 00:35:13,880 --> 00:35:15,840 Así contado, parece fácil ganar unas elecciones. 741 00:35:16,240 --> 00:35:18,000 La realidad es más compleja y, sobre todo, 742 00:35:18,080 --> 00:35:18,920 mucho más turbia 743 00:35:19,000 --> 00:35:22,040 de lo que Cambridge Analytica parece estar dispuesta a reconocer. 744 00:35:23,760 --> 00:35:25,520 Desde que se implantó en Estados Unidos, 745 00:35:25,880 --> 00:35:27,120 la firma se embarcó 746 00:35:27,200 --> 00:35:28,200 en una operación sin precedentes 747 00:35:28,280 --> 00:35:30,000 que consistía en recopilar millones de datos 748 00:35:30,080 --> 00:35:32,840 sobre la población estadounidense sin su conocimiento. 749 00:35:33,560 --> 00:35:34,800 Así es como funciona: 750 00:35:38,520 --> 00:35:41,080 Supongamos que dentro de ese coche va el señor equis. 751 00:35:41,840 --> 00:35:43,520 Al igual que cualquier otra persona, 752 00:35:43,600 --> 00:35:46,800 va dejando rastro en internet de miles de datos personales 753 00:35:46,880 --> 00:35:47,680 sin darse cuenta: 754 00:35:48,480 --> 00:35:52,280 su dirección, su edad, sus ingresos, sus aficiones, 755 00:35:52,360 --> 00:35:54,560 sus compras, su religión incluso 756 00:35:55,120 --> 00:35:57,240 y hasta si posee algún arma de fuego. 757 00:35:59,400 --> 00:36:00,360 Cambridge Analytica 758 00:36:00,440 --> 00:36:02,360 compra estos datos a las compañías de crédito, 759 00:36:02,440 --> 00:36:04,480 los bancos y aseguradoras sociales, 760 00:36:05,240 --> 00:36:08,440 pero también a gigantes de la red como Facebook, Google y Twitter. 761 00:36:10,520 --> 00:36:13,160 Es una práctica legal, aunque nadie va a presumir de ella. 762 00:36:14,320 --> 00:36:15,080 En total, 763 00:36:15,160 --> 00:36:17,280 se hace acopio de entre cuatro y cinco mil bancos de datos 764 00:36:17,360 --> 00:36:18,320 por cada uno de los 765 00:36:18,400 --> 00:36:19,960 doscientos treinta millones de adultos 766 00:36:20,040 --> 00:36:22,080 que residen en Estados Unidos. 767 00:36:23,840 --> 00:36:25,120 Es una cantidad enorme. 768 00:36:25,760 --> 00:36:26,840 Para saber cómo los usan 769 00:36:26,920 --> 00:36:28,760 solo hay que ver el resto del anuncio: 770 00:36:32,320 --> 00:36:34,160 Las campañas políticas tradicionales 771 00:36:34,240 --> 00:36:35,760 combinaban la información geográfica 772 00:36:35,840 --> 00:36:38,000 con datos demográficos como la edad y el sexo 773 00:36:38,080 --> 00:36:40,640 para identificar a los votantes y sus objetivos. 774 00:36:41,280 --> 00:36:43,280 Esto puede tener su utilidad hasta cierto punto, 775 00:36:43,360 --> 00:36:45,040 pero pasa por alto detalles personales 776 00:36:45,120 --> 00:36:47,160 que pueden condicionar la disposición del votante. 777 00:36:47,760 --> 00:36:50,680 Nosotros cotejamos esa información con hasta cinco mil bancos de datos 778 00:36:50,760 --> 00:36:54,120 acerca de ideas políticas, hábitos de consumo y estilo de vida 779 00:36:54,200 --> 00:36:55,680 en cada votante estadounidense. 780 00:36:56,400 --> 00:36:59,760 Luego, sumamos otra capa de análisis, que atiende a la personalidad, 781 00:36:59,840 --> 00:37:02,520 la capacidad de tomar decisiones y la motivación. 782 00:37:04,920 --> 00:37:07,600 Así, se obtiene una imagen única y detallada de los votantes 783 00:37:07,680 --> 00:37:09,080 y de lo que les ronda por la cabeza, 784 00:37:09,560 --> 00:37:11,800 de forma que uno sepa exactamente a quién se dirige 785 00:37:11,880 --> 00:37:13,280 y con qué tipo de mensaje hacerlo. 786 00:37:13,880 --> 00:37:16,160 Es lo que llamamos «microfocalización conductual». 787 00:37:16,840 --> 00:37:18,400 Nuestro equipo de científicos de datos, 788 00:37:18,480 --> 00:37:20,760 psicólogos y expertos en campañas le enseñará, 789 00:37:20,840 --> 00:37:23,160 cuáles son los votantes individuales que necesita para ganar 790 00:37:23,240 --> 00:37:24,520 y asegurarse la victoria. 791 00:37:26,480 --> 00:37:29,000 No, no se trata de una película de ciencia ficción. 792 00:37:29,560 --> 00:37:31,400 La idea es llevar a cabo pruebas psicológicas 793 00:37:31,480 --> 00:37:34,200 para comparar esos resultados con la información ya disponible; 794 00:37:35,480 --> 00:37:37,200 descubrir las motivaciones de la gente 795 00:37:37,280 --> 00:37:39,200 y poder así, influir en su voto. 796 00:37:40,960 --> 00:37:42,280 Es una técnica consolidada. 797 00:37:43,120 --> 00:37:44,160 Uno de sus inventores 798 00:37:44,240 --> 00:37:47,080 enseña psicometría en la Universidad de Stanford, California. 799 00:37:48,560 --> 00:37:50,280 Se llama Michal Kosinski. 800 00:37:59,320 --> 00:38:00,840 La psicometría es la ciencia 801 00:38:00,920 --> 00:38:02,560 que se ocupa de las mediciones psicológicas. 802 00:38:03,400 --> 00:38:04,320 Me di cuenta de que, 803 00:38:04,400 --> 00:38:07,600 en lugar de utilizar cuestionarios para indagar sobre la personalidad, 804 00:38:07,680 --> 00:38:11,080 los sentimientos o las experiencias de una persona, tipo 805 00:38:11,160 --> 00:38:12,920 «¿Te consideras alguien bien organizado?», 806 00:38:14,160 --> 00:38:16,840 se puede sencillamente rastrear en las huellas digitales 807 00:38:17,400 --> 00:38:18,640 para comprobar si de verdad 808 00:38:19,040 --> 00:38:21,400 es una persona bien organizada en la vida real. 809 00:38:24,160 --> 00:38:25,440 Las pruebas para determinar 810 00:38:25,520 --> 00:38:27,160 los rasgos psicológicos de una persona 811 00:38:27,240 --> 00:38:29,160 se conocen como «el modelo OCEAN». 812 00:38:29,800 --> 00:38:32,200 Miden la personalidad atendiendo a cinco criterios: 813 00:38:33,480 --> 00:38:34,200 apertura, 814 00:38:35,280 --> 00:38:36,240 responsabilidad, 815 00:38:37,080 --> 00:38:37,960 extraversión, 816 00:38:38,600 --> 00:38:40,480 amabilidad y neurosis. 817 00:38:43,200 --> 00:38:43,840 En la red 818 00:38:43,920 --> 00:38:45,680 se pueden rellenar este tipo de cuestionarios 819 00:38:45,760 --> 00:38:46,880 con preguntas 820 00:38:46,960 --> 00:38:48,680 tan aparentemente inofensivas como estas: 821 00:38:50,120 --> 00:38:51,600 ¿Qué superhéroe eres tú? 822 00:38:53,320 --> 00:38:55,080 ¿Qué personaje de «El mago de Oz» eres? 823 00:38:56,720 --> 00:38:58,240 Si fueras una película, ¿cuál serías? 824 00:38:59,560 --> 00:39:01,480 En 2008, Michal Kosinski 825 00:39:01,560 --> 00:39:02,440 ideó para Facebook 826 00:39:02,520 --> 00:39:05,720 la más célebre de estas pruebas, llamada «Mi personalidad», 827 00:39:06,320 --> 00:39:08,560 una suerte de test para saber más de uno mismo. 828 00:39:10,520 --> 00:39:12,320 La aplicación se hizo muy popular. 829 00:39:13,320 --> 00:39:16,880 Más de seis millones de personas rellenaron los cuestionarios y, 830 00:39:16,960 --> 00:39:17,800 de todas ellas, 831 00:39:17,880 --> 00:39:18,880 una gran parte 832 00:39:18,960 --> 00:39:21,720 nos donó también la información de su perfil de Facebook. 833 00:39:23,080 --> 00:39:24,240 A partir de ahí, 834 00:39:25,160 --> 00:39:26,440 se pueden emplear algoritmos 835 00:39:27,280 --> 00:39:30,600 para transformar esa información en perfiles íntimos 836 00:39:30,920 --> 00:39:32,760 muy detallados y muy precisos. 837 00:39:33,440 --> 00:39:35,680 El resultado de ello es que Michal Kosinski 838 00:39:35,760 --> 00:39:38,240 atesora la base de datos psicométrica más grande del mundo, 839 00:39:38,760 --> 00:39:40,920 una base de datos enteramente a su disposición, 840 00:39:41,280 --> 00:39:42,520 con los perfiles de Facebook 841 00:39:42,600 --> 00:39:45,280 de los seis millones de personas que respondieron a la invitación. 842 00:39:45,840 --> 00:39:48,080 Y con datos suficientes como para saber mucho de ti... 843 00:39:49,080 --> 00:39:50,600 Todos tus «Me gusta» de Facebook 844 00:39:50,680 --> 00:39:53,640 se pueden convertir en una predicción bastante minuciosa 845 00:39:53,720 --> 00:39:56,280 de tus puntos de vista políticos y religiosos, 846 00:39:56,640 --> 00:39:58,720 tu grado de inteligencia o de felicidad, 847 00:39:59,200 --> 00:40:00,520 tu orientación sexual 848 00:40:00,600 --> 00:40:03,000 e incluso de si tus padres están divorciados o no. 849 00:40:03,840 --> 00:40:05,040 La gente me pregunta a menudo 850 00:40:05,120 --> 00:40:06,160 con cuánta exactitud 851 00:40:06,240 --> 00:40:09,080 pueden predecir estos algoritmos nuestros rasgos más íntimos. 852 00:40:09,720 --> 00:40:10,520 El mejor ejemplo 853 00:40:10,600 --> 00:40:12,000 proviene de un estudio reciente 854 00:40:12,080 --> 00:40:14,960 donde hemos comparado el grado de precisión de un algoritmo 855 00:40:15,320 --> 00:40:16,880 con el de una serie de individuos. 856 00:40:18,000 --> 00:40:20,160 Lo que hicimos fue recurrir a amigos y familiares 857 00:40:20,240 --> 00:40:22,360 de las personas que se sometían a la prueba, 858 00:40:22,920 --> 00:40:25,280 y les pedimos que rellenaran el test de personalidad 859 00:40:25,360 --> 00:40:27,080 en nombre de los participantes. 860 00:40:28,840 --> 00:40:30,440 Acto seguido, 861 00:40:31,600 --> 00:40:34,920 alimentamos un algoritmo para cada participante del estudio 862 00:40:35,000 --> 00:40:37,000 con sus «Me gusta» de Facebook 863 00:40:37,880 --> 00:40:39,760 de forma que nos permitiera, una vez más, 864 00:40:40,200 --> 00:40:41,680 predecir su personalidad. 865 00:40:42,920 --> 00:40:45,400 Los resultados de este experimento son asombrosos. 866 00:40:46,200 --> 00:40:48,280 Solo con analizar diez «Me gusta» de tu Facebook 867 00:40:48,640 --> 00:40:51,200 el algoritmo te conoce mejor que tus compañeros de trabajo. 868 00:40:52,120 --> 00:40:54,240 Con cien «Me gusta», te conoce mejor que tu familia. 869 00:40:55,280 --> 00:40:58,600 Y con doscientos treinta «Me gusta», te conoce mejor que tu pareja. 870 00:41:01,800 --> 00:41:04,840 Con la cantidad de huellas digitales que dejamos a diario, 871 00:41:04,920 --> 00:41:08,560 mientras navegamos por internet o jugamos con nuestros teléfonos, 872 00:41:10,160 --> 00:41:11,840 no es descabellado pensar 873 00:41:11,920 --> 00:41:13,200 que los ordenadores 874 00:41:13,920 --> 00:41:15,440 nos puedan llegar a conocer mejor, 875 00:41:15,520 --> 00:41:18,080 incluso que nuestros familiares más cercanos. 876 00:41:21,920 --> 00:41:23,840 ¿Ordenadores que combinan datos personales 877 00:41:23,920 --> 00:41:26,680 con pruebas psicológicas para predecir el comportamiento humano? 878 00:41:27,200 --> 00:41:29,760 Suena a ciencia ficción, ¿verdad? Pero no lo es. 879 00:41:34,160 --> 00:41:35,160 David Carroll 880 00:41:35,240 --> 00:41:37,000 es profesor de diseño de medios gráficos 881 00:41:37,080 --> 00:41:38,880 en la Universidad Parsons de Nueva York. 882 00:41:39,240 --> 00:41:39,960 Durante meses, 883 00:41:40,040 --> 00:41:41,120 batalló para recuperar los datos 884 00:41:41,200 --> 00:41:43,000 que Cambridge Analytica tenía sobre él. 885 00:41:43,560 --> 00:41:45,600 Y lo que se encontró le dejó boquiabierto. 886 00:41:51,560 --> 00:41:54,160 Esta es la hoja de cálculo de Excel que me proporcionaron. 887 00:41:55,240 --> 00:41:56,720 Está dividida en tres pestañas: 888 00:41:57,040 --> 00:41:59,800 datos personales, aspectos electorales y modelos. 889 00:42:01,640 --> 00:42:02,320 Por un lado, 890 00:42:02,400 --> 00:42:03,920 figuraban docenas de datos personales 891 00:42:04,000 --> 00:42:05,920 que la empresa había ido pescando de internet. 892 00:42:06,960 --> 00:42:08,760 Aquí está toda la información del votante, 893 00:42:09,520 --> 00:42:11,840 que es de consulta pública en el registro electoral, 894 00:42:12,200 --> 00:42:13,280 y es correcta. 895 00:42:14,480 --> 00:42:16,440 Aclara cuándo entré en el censo, 896 00:42:17,560 --> 00:42:18,760 mi fecha de cumpleaños, 897 00:42:20,640 --> 00:42:21,480 mi dirección, 898 00:42:22,200 --> 00:42:23,160 el código postal, 899 00:42:24,280 --> 00:42:25,280 todo ello relacionado 900 00:42:25,360 --> 00:42:26,760 con la información del censo 901 00:42:27,480 --> 00:42:28,960 y con el distrito electoral 902 00:42:31,320 --> 00:42:32,840 las elecciones al Senado... 903 00:42:32,920 --> 00:42:34,680 estatales y legislativas. 904 00:42:35,440 --> 00:42:36,160 Hay, además, 905 00:42:36,240 --> 00:42:38,560 todo tipo de información sobre mis hábitos de consumo, 906 00:42:38,640 --> 00:42:40,720 las zonas de televisión y radio a las que pertenezco 907 00:42:41,080 --> 00:42:42,360 y las reglas FIPS, 908 00:42:42,800 --> 00:42:45,040 unos códigos que tienen que ver con el cifrado de datos. 909 00:42:45,880 --> 00:42:46,560 Por otro lado, 910 00:42:46,640 --> 00:42:49,320 había también una evaluación psicométrica de su personalidad. 911 00:42:51,240 --> 00:42:53,600 Aquí podemos ver el modelo, que sería mi perfil. 912 00:42:54,520 --> 00:42:55,680 Hay diferentes temas 913 00:42:55,760 --> 00:42:57,800 ordenados por un criterio de relevancia, 914 00:42:58,600 --> 00:43:02,560 con mis inclinaciones partidistas reseñadas unas veces y otras no. 915 00:43:04,000 --> 00:43:06,080 Se puede observar qué tipo de cliente soy, 916 00:43:06,960 --> 00:43:10,560 en tanto que no me considera ni demócrata ni republicano o, 917 00:43:10,640 --> 00:43:12,640 en todo caso, como un republicano dudoso. 918 00:43:13,720 --> 00:43:14,600 El modelo en sí 919 00:43:14,680 --> 00:43:17,040 tiene el interés de que permite encontrar 920 00:43:17,160 --> 00:43:18,760 a votantes conservadores 921 00:43:19,440 --> 00:43:21,400 que estarían registrados como demócratas 922 00:43:21,840 --> 00:43:24,400 cuando, en realidad, votan a los republicanos. 923 00:43:26,600 --> 00:43:28,440 Al poder relacionar el código postal 924 00:43:28,520 --> 00:43:30,680 con el resto de distritos electorales, 925 00:43:31,400 --> 00:43:33,840 se puede atinar muchísimo en términos geográficos 926 00:43:34,320 --> 00:43:35,800 a la hora de localizar votantes, 927 00:43:36,400 --> 00:43:38,600 de forma que se pueda inclinar la balanza 928 00:43:38,680 --> 00:43:39,920 en las elecciones de este país. 929 00:43:41,000 --> 00:43:42,560 Si los ciudadanos estadounidenses 930 00:43:42,640 --> 00:43:44,640 fueran conscientes de que esto está pasando 931 00:43:44,720 --> 00:43:46,240 ―y, además, a escala internacional―, 932 00:43:46,720 --> 00:43:47,760 se indignarían. 933 00:43:49,080 --> 00:43:50,560 Financiada por Robert 934 00:43:50,640 --> 00:43:51,920 y dirigida por Steve Bannon 935 00:43:52,000 --> 00:43:53,320 la firma Cambridge Analytica 936 00:43:53,400 --> 00:43:54,560 no podía resistirse 937 00:43:54,640 --> 00:43:56,600 a ofrecer sus servicios al candidato Donald Trump. 938 00:44:00,880 --> 00:44:04,040 A finales de junio de 2016, el acuerdo estaba ya cerrado. 939 00:44:05,320 --> 00:44:07,080 Y el veintinueve de julio de ese año, 940 00:44:07,160 --> 00:44:09,720 la firma británica recibió su primer ingreso. 941 00:44:10,680 --> 00:44:11,720 Está reflejado 942 00:44:11,800 --> 00:44:13,040 en el estadillo de cuentas de la campaña. 943 00:44:13,640 --> 00:44:14,960 Gracias a los cuatro pagos 944 00:44:15,040 --> 00:44:17,360 que recibe entre julio y octubre de 2016, 945 00:44:17,880 --> 00:44:18,840 Cambridge Analytica 946 00:44:18,920 --> 00:44:20,680 ingresa casi seis millones de dólares. 947 00:44:24,520 --> 00:44:25,560 Al mismo tiempo, 948 00:44:25,640 --> 00:44:27,480 el comité de acción política pro Trump 949 00:44:27,560 --> 00:44:29,000 sufragado por Robert Mercer 950 00:44:29,440 --> 00:44:31,440 también le abonaría cinco millones más de dólares 951 00:44:31,520 --> 00:44:33,040 a Cambridge Analytica. 952 00:44:34,000 --> 00:44:34,720 A la postre, 953 00:44:34,800 --> 00:44:35,680 la compañía británica 954 00:44:35,760 --> 00:44:37,640 acabaría recibiendo once millones de dólares 955 00:44:37,720 --> 00:44:38,880 por prestar sus servicios 956 00:44:38,960 --> 00:44:40,760 a favor de la campaña de Trump. 957 00:44:42,200 --> 00:44:43,520 Desde agosto de 2016, 958 00:44:43,600 --> 00:44:45,480 la máquina de ganar elecciones de Robert Mercer 959 00:44:45,560 --> 00:44:47,520 iba a cien por hora a favor de Trump. 960 00:44:49,240 --> 00:44:50,520 Lo único que faltaba aún 961 00:44:50,600 --> 00:44:53,200 era aplicarla a las elecciones estadounidenses. 962 00:44:57,320 --> 00:44:58,360 El equipo de campaña de Trump 963 00:44:58,440 --> 00:45:00,160 incluyendo a Cambridge Analytica 964 00:45:00,240 --> 00:45:02,160 vio algo en el electorado estadounidense 965 00:45:02,240 --> 00:45:03,240 que el equipo de Clinton 966 00:45:03,320 --> 00:45:05,240 y los medios de comunicación no advirtieron. 967 00:45:07,520 --> 00:45:09,520 Gracias al conocimiento del electorado 968 00:45:09,600 --> 00:45:11,280 por parte de Cambridge Analytica 969 00:45:11,360 --> 00:45:12,280 los asesores de Trump 970 00:45:12,360 --> 00:45:13,480 diseñaron una estrategia 971 00:45:13,560 --> 00:45:16,440 a la medida del peculiar sistema electoral estadounidense. 972 00:45:18,360 --> 00:45:19,240 En Estados Unidos, 973 00:45:19,320 --> 00:45:21,320 el Presidente no es elegido directamente por el pueblo, 974 00:45:21,760 --> 00:45:23,040 sino a través de los electores 975 00:45:23,120 --> 00:45:25,440 que hay designados en cada uno de los cincuenta estados. 976 00:45:28,400 --> 00:45:30,520 No todos los electores tienen el mismo peso 977 00:45:30,600 --> 00:45:32,680 ni son igual de decisivos a la hora de ganar. 978 00:45:37,480 --> 00:45:38,560 El equipo de Trump 979 00:45:38,640 --> 00:45:41,160 sospechaba que no iban a ganar en el cómputo general de votos, 980 00:45:41,240 --> 00:45:43,360 lo cual hizo que concentraran toda su estrategia 981 00:45:43,440 --> 00:45:44,960 en los estados clave. 982 00:45:51,000 --> 00:45:53,400 Si sabes que no vas a obtener la mayoría de los votos 983 00:45:53,480 --> 00:45:54,600 en todo el país, 984 00:45:55,960 --> 00:45:57,320 ¿qué haces? 985 00:45:57,800 --> 00:46:00,080 Pues tienes que ganar suficientes electores 986 00:46:00,160 --> 00:46:01,240 para inclinar la balanza. 987 00:46:01,680 --> 00:46:02,600 ¿Y cómo haces eso? 988 00:46:02,960 --> 00:46:03,960 Pues estaban obligados 989 00:46:04,040 --> 00:46:06,680 a ir convenciendo a cada uno de los pequeños grupos de votantes. 990 00:46:08,360 --> 00:46:09,560 Trump pisó varias regiones 991 00:46:09,640 --> 00:46:11,920 que a más de uno le parecían un error de cálculo. 992 00:46:12,600 --> 00:46:13,320 Pensaban: 993 00:46:13,400 --> 00:46:15,360 «¿qué hace yendo allí? Tendría que ir a otro lado». 994 00:46:15,880 --> 00:46:16,880 Pero estaba todo planeado. 995 00:46:17,480 --> 00:46:18,680 Puso rumbo a estados 996 00:46:18,760 --> 00:46:21,120 que siempre habían sido considerados demócratas, 997 00:46:21,200 --> 00:46:23,520 como Míchigan, Wisconsin y Pensilvania. 998 00:46:24,640 --> 00:46:26,680 Y en los tres venció Trump en noviembre. 999 00:46:30,000 --> 00:46:32,840 Esa fue la estrategia recomendada por Cambridge Analytica 1000 00:46:33,960 --> 00:46:35,040 no tratar de convencer 1001 00:46:35,120 --> 00:46:36,920 a millones de ciudadanos por todo el país 1002 00:46:37,000 --> 00:46:38,040 de que votaran a Trump 1003 00:46:39,040 --> 00:46:40,040 sino, al contrario, 1004 00:46:40,440 --> 00:46:42,400 concentrarse en unas decenas de miles que, 1005 00:46:42,480 --> 00:46:44,360 como bien sabía la firma por sus análisis, 1006 00:46:44,440 --> 00:46:46,120 no tenían aún el voto decidido. 1007 00:46:50,880 --> 00:46:53,720 Si eres alguien tan inteligente como Robert Mercer 1008 00:46:54,640 --> 00:46:56,320 y vas detrás de un objetivo, 1009 00:46:57,240 --> 00:46:59,800 lo que él hace con los algoritmos en el negocio bursátil 1010 00:47:00,360 --> 00:47:02,640 es tratar de encontrar esa pequeña ventaja 1011 00:47:02,720 --> 00:47:04,240 que pueda haber sobre la competencia, 1012 00:47:05,040 --> 00:47:06,520 porque, por muy pequeña que sea, 1013 00:47:06,600 --> 00:47:08,760 siempre puede acabar marcando la diferencia 1014 00:47:08,840 --> 00:47:10,000 y eso es lo que, a la postre, 1015 00:47:10,080 --> 00:47:12,960 te puede hacer amasar ingentes cantidades de dinero. 1016 00:47:14,200 --> 00:47:15,400 Creo que es lo mismo que hace 1017 00:47:15,480 --> 00:47:17,200 a la hora de utilizar los datos personales 1018 00:47:17,560 --> 00:47:19,080 y el potencial de manipulación 1019 00:47:19,160 --> 00:47:21,080 que brinda una plataforma como Facebook 1020 00:47:22,440 --> 00:47:24,920 ya que esto puede ser lo que le dé esa ventaja, 1021 00:47:25,000 --> 00:47:27,680 además de la estrategia de difundir noticias falsas 1022 00:47:28,040 --> 00:47:30,720 y el resto de técnicas y tácticas por el estilo. 1023 00:47:32,720 --> 00:47:33,720 Ahí es donde entra 1024 00:47:33,800 --> 00:47:34,760 la técnica ideada 1025 00:47:34,840 --> 00:47:36,520 por los científicos de Cambridge Analytica. 1026 00:47:37,680 --> 00:47:41,000 Gracias a la información que tenían sobre el electorado estadounidense, 1027 00:47:41,080 --> 00:47:43,720 definieron treinta y dos tipos distintos de personalidades 1028 00:47:43,800 --> 00:47:45,160 por toda la nación. 1029 00:47:45,680 --> 00:47:47,600 Enviaron miles de mensajes individualizados, 1030 00:47:47,680 --> 00:47:48,880 dirigidos a aquellos 1031 00:47:48,960 --> 00:47:51,800 que consideraban particularmente inestables o catastrofistas 1032 00:47:52,320 --> 00:47:53,080 y, por tanto, 1033 00:47:53,160 --> 00:47:54,800 vulnerables a los mensajes de Donald Trump. 1034 00:47:56,520 --> 00:47:59,720 La compañía identificó a muchos de estos votantes en tres estados: 1035 00:48:00,600 --> 00:48:02,800 Wisconsin, Míchigan y Pensilvania. 1036 00:48:04,160 --> 00:48:05,480 Y en los tres creyeron 1037 00:48:05,560 --> 00:48:07,880 que podrían lograr inclinar el voto hacia Trump. 1038 00:48:12,320 --> 00:48:13,680 En un comunicado de prensa, 1039 00:48:13,760 --> 00:48:16,560 Cambridge Analytica explicó abiertamente su estrategia: 1040 00:48:19,280 --> 00:48:21,600 «Cuando, en las últimas semanas de la campaña electoral, 1041 00:48:21,680 --> 00:48:23,200 los analistas de datos de la empresa 1042 00:48:23,280 --> 00:48:25,160 volvieron a calcular el número de votantes 1043 00:48:25,240 --> 00:48:26,640 y a reformular los modelos 1044 00:48:26,720 --> 00:48:28,440 para la posible victoria de Donald Trump, 1045 00:48:28,920 --> 00:48:30,000 el candidato republicano 1046 00:48:30,080 --> 00:48:32,400 volvió a visitar estados como Míchigan y Wisconsin.» 1047 00:48:38,080 --> 00:48:39,680 Sigue habiendo una pregunta en el aire 1048 00:48:39,760 --> 00:48:41,320 que la firma británica no despeja: 1049 00:48:42,440 --> 00:48:44,640 ¿cómo accedieron a estos votantes particulares? 1050 00:48:46,120 --> 00:48:48,400 Bueno, lo hicieron sin su consentimiento, 1051 00:48:48,480 --> 00:48:50,120 utilizando una herramienta de Facebook 1052 00:48:50,200 --> 00:48:51,080 poco conocida: 1053 00:48:51,360 --> 00:48:52,520 la publicación oculta. 1054 00:48:57,040 --> 00:48:59,400 La idea es que una empresa o una página de Facebook 1055 00:48:59,480 --> 00:49:02,520 pueda activar un mensaje para un grupo muy específico, 1056 00:49:02,600 --> 00:49:03,840 solo visible para ellos 1057 00:49:03,920 --> 00:49:06,520 y sin que la empresa aparezca en su perfil personal. 1058 00:49:08,200 --> 00:49:09,480 En un contexto electoral, 1059 00:49:11,000 --> 00:49:12,960 esto significa que un candidato 1060 00:49:13,040 --> 00:49:15,440 puede dirigirse a un usuario de Facebook 1061 00:49:16,320 --> 00:49:18,520 con un mensaje que denigre a otro candidato 1062 00:49:19,920 --> 00:49:20,520 y ello 1063 00:49:20,600 --> 00:49:22,280 a espaldas de los medios de comunicación. 1064 00:49:23,680 --> 00:49:26,920 Pues estos mensajes no aparecen públicamente. 1065 00:49:28,480 --> 00:49:29,280 Así pues, 1066 00:49:29,360 --> 00:49:30,240 la publicación oculta 1067 00:49:30,320 --> 00:49:32,520 consiste en un tipo de mensajes muy personalizados 1068 00:49:32,600 --> 00:49:34,880 que solo puede ver la persona a la que van destinados. 1069 00:49:37,040 --> 00:49:38,400 ¿Cómo funciona exactamente? 1070 00:49:39,640 --> 00:49:40,760 Regresemos al señor equis. 1071 00:49:42,600 --> 00:49:43,960 Gracias a Cambridge Analytica 1072 00:49:44,040 --> 00:49:44,880 el equipo de Trump 1073 00:49:45,200 --> 00:49:47,160 sabe que está a favor de llevar armas de fuego. 1074 00:49:48,080 --> 00:49:50,040 Por eso, creará un mensaje hecho a su medida: 1075 00:49:50,840 --> 00:49:53,520 «¿Sabías que Hillary Clinton quiere arrebatarte el arma?». 1076 00:49:56,080 --> 00:49:58,680 Este mensaje lo recibe en su fuente de noticias de Facebook 1077 00:49:58,760 --> 00:49:59,720 en un momento dado 1078 00:49:59,800 --> 00:50:01,920 y de acuerdo al rastro de búsquedas y huellas digitales 1079 00:50:02,000 --> 00:50:03,160 que ha ido dejando. 1080 00:50:05,480 --> 00:50:07,920 Nadie más que él verá ese anuncio concreto 1081 00:50:08,000 --> 00:50:10,560 que, a las pocas horas, desaparecerá. 1082 00:50:15,120 --> 00:50:17,520 No queda registro alguno de estos mensajes, 1083 00:50:18,320 --> 00:50:20,160 así que no se puede saber quién los ha leído. 1084 00:50:20,880 --> 00:50:23,240 Una democracia que se mantiene entre sombras 1085 00:50:23,880 --> 00:50:25,600 no es una verdadera democracia. 1086 00:50:26,760 --> 00:50:28,560 Los debates políticos deberían ser abiertos, 1087 00:50:29,360 --> 00:50:32,960 de manera que todo el mundo supiese de qué pie cojea cada parte. 1088 00:50:33,880 --> 00:50:34,880 No así, 1089 00:50:34,960 --> 00:50:35,960 con ese secretismo 1090 00:50:36,040 --> 00:50:38,200 mediante el cual la gente recibe un mensaje misterioso 1091 00:50:38,280 --> 00:50:39,800 en su teléfono o en su ordenador, 1092 00:50:40,120 --> 00:50:41,400 que puede ser cualquier mentira, 1093 00:50:41,800 --> 00:50:42,800 aunque nunca lo sabremos 1094 00:50:42,880 --> 00:50:44,040 porque no ha dejado rastro. 1095 00:50:44,920 --> 00:50:46,840 Solo se encuentran en los servidores de Facebook 1096 00:50:47,440 --> 00:50:48,720 ―lo cual no deja de ser interesante-, 1097 00:50:48,800 --> 00:50:49,840 pero el problema es 1098 00:50:49,920 --> 00:50:51,720 que ellos jamás los sacarán a la luz. 1099 00:50:54,200 --> 00:50:55,560 Esta avalancha de mensajes 1100 00:50:55,640 --> 00:50:58,440 se intensificó en las últimas semanas de la campaña electoral. 1101 00:50:59,600 --> 00:51:02,640 El ocho de noviembre de 2016, contra todo pronóstico, 1102 00:51:02,720 --> 00:51:03,720 Trump ganó 1103 00:51:03,800 --> 00:51:05,880 por veintitrés mil votos en Wisconsin 1104 00:51:07,440 --> 00:51:08,800 once mil en Míchigan 1105 00:51:09,840 --> 00:51:11,600 y cuarenta y tres mil en Pensilvania. 1106 00:51:14,480 --> 00:51:16,640 Esos setenta y siete mil votos en total, 1107 00:51:16,720 --> 00:51:18,440 logrados en los tres estados clave, 1108 00:51:18,520 --> 00:51:20,600 fueron los que llevaron a Trump a la victoria, 1109 00:51:20,680 --> 00:51:21,720 a pesar de haber logrado 1110 00:51:21,800 --> 00:51:24,120 tres millones de votos menos en todo el país. 1111 00:51:25,120 --> 00:51:27,760 La estrategia de Cambridge Analytica resultó un éxito. 1112 00:51:32,320 --> 00:51:34,640 Podemos ver que fueron unos setenta mil votantes 1113 00:51:34,720 --> 00:51:38,400 los que determinaron el resultado de estas elecciones presidenciales, 1114 00:51:38,480 --> 00:51:42,080 ya que residían en los distritos electorales que, a la postre, 1115 00:51:42,160 --> 00:51:43,600 resultaron decisivos. 1116 00:51:44,680 --> 00:51:45,640 A fin de cuentas, 1117 00:51:46,280 --> 00:51:49,720 muestra lo vulnerable que puede ser nuestro sistema electoral. 1118 00:51:51,280 --> 00:51:53,280 Si se puede identificar a los votantes 1119 00:51:53,360 --> 00:51:55,280 que más puedan inclinar la balanza 1120 00:51:55,600 --> 00:51:57,960 recurriendo tan solo a técnicas informáticas, 1121 00:51:59,200 --> 00:52:01,960 el resto de votos pasa automáticamente a valer menos. 1122 00:52:05,680 --> 00:52:06,640 De pronto, 1123 00:52:06,720 --> 00:52:08,000 la política y la democracia 1124 00:52:08,080 --> 00:52:10,800 pasaron a ser las siguientes industrias en caer, 1125 00:52:11,560 --> 00:52:14,280 tras la prensa, el periodismo en sí y la música. 1126 00:52:15,280 --> 00:52:18,000 Siempre hablamos de la “gran disrupción” 1127 00:52:18,640 --> 00:52:20,000 que supone la tecnología. 1128 00:52:21,120 --> 00:52:23,680 Y es como si esa interrupción 1129 00:52:23,760 --> 00:52:25,480 hubiera llegado también a la política; 1130 00:52:25,560 --> 00:52:30,280 y no solo a la política, también a la democracia. 1131 00:52:31,560 --> 00:52:34,400 Y el gran disruptor no es otro que Donald Trump. 1132 00:52:52,040 --> 00:52:53,000 Donald Trump 1133 00:52:53,080 --> 00:52:54,600 no jugó limpio para ganar las elecciones. 1134 00:52:55,720 --> 00:52:57,920 Nunca antes un candidato presidencial 1135 00:52:58,000 --> 00:52:59,600 había mentido tan impunemente. 1136 00:53:01,360 --> 00:53:03,200 Y todos los que lo apoyaron en la sombra 1137 00:53:03,280 --> 00:53:05,040 han recibido hoy su compensación. 1138 00:53:07,760 --> 00:53:08,720 Robert Mercer 1139 00:53:08,800 --> 00:53:10,640 ha colocado en puestos clave a toda su cohorte: 1140 00:53:11,160 --> 00:53:14,160 Steve Bannon, KellyAnne Conway y David Bossie 1141 00:53:14,240 --> 00:53:16,640 forman parte del círculo más cercano al Presidente. 1142 00:53:18,040 --> 00:53:19,360 En cuanto a Rebekah Mercer 1143 00:53:19,440 --> 00:53:20,240 fue ella misma 1144 00:53:20,320 --> 00:53:22,560 quien organizó el tablero de la Administración Trump. 1145 00:53:24,040 --> 00:53:25,000 Cambridge Analytica 1146 00:53:25,080 --> 00:53:26,680 sigue trabajando en la arena política. 1147 00:53:28,520 --> 00:53:30,320 Tras el Reino Unido y los Estados Unidos, 1148 00:53:30,400 --> 00:53:32,280 la firma especializada en psicometría 1149 00:53:32,360 --> 00:53:35,600 ha ampliado su cartera de clientes, sin ir más lejos en África. 1150 00:53:37,000 --> 00:53:38,640 Sus métodos siguen siendo los mismos, 1151 00:53:39,160 --> 00:53:40,720 consistentes en dirigirse a la gente, 1152 00:53:40,800 --> 00:53:43,400 tratando de influir en su voto sin que se dé cuenta. 1153 00:53:44,960 --> 00:53:48,000 Así, siguiendo el ejemplo de lo ocurrido en Estados Unidos, 1154 00:53:48,440 --> 00:53:50,720 el uso interesado de nuestros datos personales 1155 00:53:50,800 --> 00:53:53,400 puede traer consigo otra disrupción política 1156 00:53:53,480 --> 00:53:55,080 en muchos otros países. 1157 00:53:56,760 --> 00:54:04,320 Subtitulado por: María Victoria Cerezo Olivares 1158 00:54:17,200 --> 00:54:19,880 He recibido montones de mis seguidores 1159 00:54:20,200 --> 00:54:21,840 diciéndome que habían donado. 1160 00:54:22,960 --> 00:54:25,800 La ayuda humanitaria necesita cada día más dinero 1161 00:54:25,880 --> 00:54:27,800 para hacer frente a la multitud de emergencias 1162 00:54:27,880 --> 00:54:29,720 que se multiplican en el mundo. 1163 00:54:30,480 --> 00:54:31,520 De ahí la curiosa alianza 1164 00:54:31,600 --> 00:54:33,960 entre los medios de comunicación y las ONG'S. 1165 00:54:35,200 --> 00:54:37,520 Las donaciones rozan los cuatro millones. 1166 00:54:38,000 --> 00:54:39,600 Es realmente extraordinario. 1167 00:54:40,520 --> 00:54:43,080 Sin imágenes impactantes no hay captación de fondos. 1168 00:54:43,920 --> 00:54:45,040 El objetivo es 1169 00:54:45,160 --> 00:54:47,520 llegar al corazón de millones de donantes particulares 1170 00:54:47,600 --> 00:54:51,320 que les permitan financiar una buena parte de sus presupuestos. 1171 00:54:52,600 --> 00:54:55,200 Hay que traspasar la barrera de los dos segundos que hay 1172 00:54:55,280 --> 00:54:57,840 entre que te tiren a la papelera y el.... 1173 00:54:57,920 --> 00:54:58,920 parece interesante. 1174 00:54:59,240 --> 00:55:00,480 Ha despertado mi curiosidad. 1175 00:55:00,560 --> 00:55:01,640 Voy a ver lo que hay dentro. 1176 00:55:02,040 --> 00:55:04,200 Estamos acostumbrados a que nos financien los estados. 1177 00:55:04,560 --> 00:55:05,720 A las relaciones claras. 1178 00:55:06,480 --> 00:55:08,600 Ahora tenemos que salir de nuestra zona de confort 1179 00:55:08,680 --> 00:55:11,600 y buscar una nueva forma de concebir la ayuda humanitaria. 1180 00:55:12,480 --> 00:55:13,840 La ayuda humanitaria de emergencia 1181 00:55:13,920 --> 00:55:16,680 se ha convertido en una industria gigantesca, 1182 00:55:17,320 --> 00:55:18,320 sin ánimo de lucro 1183 00:55:18,400 --> 00:55:21,440 pero con las mismas estrategias que las multinacionales. 1184 00:55:22,600 --> 00:55:25,280 Esta también es la típica foto que funciona muy bien 1185 00:55:25,360 --> 00:55:26,400 con la mirada del niño, 1186 00:55:26,760 --> 00:55:28,560 y que no falte la medida de desnutrición. 1187 00:55:29,360 --> 00:55:29,840 Sin embargo 1188 00:55:29,920 --> 00:55:32,560 algunos quieren terminar con el negocio de la caridad 1189 00:55:33,160 --> 00:55:34,560 denunciando malas prácticas 1190 00:55:34,640 --> 00:55:36,800 como los altos costos de operación de las ONG'S 1191 00:55:37,360 --> 00:55:38,680 la falta de coordinación, 1192 00:55:39,080 --> 00:55:40,760 o los múltiples intermediarios. 1193 00:55:41,360 --> 00:55:44,040 Y creen que el sistema debe reconsiderarse. 1194 00:55:45,200 --> 00:55:46,200 Durante unas semanas 1195 00:55:46,280 --> 00:55:48,360 se creó una ilusión con muchas donaciones. 1196 00:55:49,680 --> 00:55:51,040 Pero luego, meses después, 1197 00:55:51,480 --> 00:55:52,720 la gente fue abandonada, 1198 00:55:52,800 --> 00:55:55,320 sencillamente porque Haití ya no estaba de moda. 1199 00:55:56,400 --> 00:55:59,120 No se debe utilizar la pobreza para enriquecerse. 1200 00:55:59,640 --> 00:56:01,240 A la sombra del negocio humanitario. 1201 00:56:01,600 --> 00:56:03,920 La próxima semana en DOCUMENTOS TV. 1202 00:56:05,000 --> 00:56:12,600 Subtitulado por: María Victoria Cerezo Olivares 105969

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.