science security lab
  • Inicio
  • Proyecto/s
  • Publicaciones
  • Enlaces
  • Contacto

PUBLICACIONES




​
​BLOG

EN LAS CIUDADES SE ESTÁ JUGANDO EL FUTURO DE LA HUMANIDAD

9/3/2021

0 Comments

 
Imagen

ENLACE REVISTA TELOS
La humanidad se enfrenta a enormes desafíos medioambientales: el cambio climático, la extinción de especies, o la contaminación, etc. Sus consecuencias se sienten en todo el planeta y afectan tanto a las personas, como la naturaleza y a la economía. Aunque es en las ciudades donde se generan muchos de estos problemas, también es en ellas donde se está tratando de ser parte de la solución. El uso intensivo de datos, y de la inteligencia artificial suponen un impacto positivo en la sostenibilidad urbana.

Imagen





































(El mapa del cólera de John Snow)

​A finales del verano de 1854 la ciudad de Londres asistía a una batalla crucial entre humanos y microbios, un brote de cólera especialmente mortal estaba asolando su población. En ese tiempo Londres era una metrópoli victoriana enorme, con una población de medio millón de habitantes encajados en apenas un perímetro de cincuenta kilómetros. Mediante un mapa de puntos John Show logró representar el brote de cólera y ayudó enormemente a su compresión científica (Johnson, 2006). La investigación conjunta de John Snow y Henry Whitehead (el que pasaría a la historia como el caso de Broad Street) sacudiría los cimientos de la comunidad científica y cambiaría para siempre nuestra perspectiva de la vida moderna. El triunfo del urbanismo, la epidemiología, y el razonamiento científico, transformarían la vida metropolitana en una realidad sostenible para miles de ciudadanos.



El uso masivo de datos y la inteligencia artificial redefinen las ciudades y el futuro

Sostenibilidad urbana

Jane Jacobs escribía que las ciudades han sido a lo largo de la historia las víctimas más propicias y desamparadas de la enfermedad, pero terminaron convirtiéndose en las grandes conquistadoras de éstas (Jacobs,2011, 487). Hoy ya vivimos en un mundo predominante urbano heredero de los sucesos del Londres XIX. La urbanización del planeta constituye una de las tendencias más transformadoras del siglo XXI. Alrededor del 56% de las personas que habitan nuestro planeta ya viven en ciudades o en megaciudades (un 80% en el caso español). De las 31 megaciudades que existían en 2016, 24 estaban localizadas en regiones en desarrollo, como el caso de China que tenía seis e India que tenía cinco. Aunque las ciudades apenas ocupan el 3% de la superficie terrestre, acaparan entre el 60% y el 80% del consumo de energía, contribuyen, aproximadamente, al 70% del PIB de la economía global, y consumen el 60% de la energía global, emiten el 70% de los gases de efecto invernadero y producen el 70 % de los residuos mundiales. (Hidalgo, 2017).

Los objetivos de Desarrollo Sostenible de las Naciones Unidas han fijado en su meta número 11 el compromiso para 2030 de unas ciudades que se conviertan en: lugares seguros, resilientes y sostenibles. Recientemente, el secretario general de Naciones Unidas, Antonio Guterres ponía el énfasis en esta situación: “las ciudades son el lugar donde se ganará o perderá en gran medida la batalla contra el cambio climático, y señaló a los alcaldes como los primeros en responder a la emergencia climática”.

La sostenibilidad no es un término científico, más bien es una idea fuerza, y aunque no pretenda describir, si trata de empujar, o de expresar un ideal. Tras el concepto de sostenibilidad se encuentra el propósito de garantizar un entorno de habitabilidad adecuada, sin comprometer la estabilidad de las generaciones futuras. Este ideal implicaría un respeto por el medio natural, al mismo tiempo que trata de lograr unas mejores condiciones de vida para todos (Terradas, 2006). Podríamos reducirlo a tres categorías principales, íntimamente ligadas: las personas (lo social), el planeta (ambientales) y la economía. En lo social se incluirían factores tales como la calidad de vida de la población, desde el acceso a la educación y la sanidad, pasando por los índices de criminalidad. En lo medioambiental, se trataría de reducir el grado de polución, aumentar el uso de energías renovables, y la eficiencia energética, o mejorar la gestión de residuos etc. Y, finalmente, con la fortaleza económica, se pretende tener una buena tasa de empleo, una buena renta per cápita, o mayor calidad de las infraestructuras de transporte, por ejemplo.

La redefinición de las ciudades mediante el uso masivo de los datos y la IA

En una cumbre de expertos y científicos sobre el uso de datos y la IA para el bien común celebrada recientemente, se llegó a la conclusión de que estas tecnologías tienen un enorme impacto potencial para lograr unas ciudades más sostenibles. Mostraré algunos ejemplos de cómo el uso del big data, la inteligencia artificial, y el internet de las cosas (IoT) ayudan a una gestión más eficiente de las ciudades, logrando por ejemplo, una movilidad urbana más sostenible y ecológica, una mejor sanidad y una seguridad más eficiente, o un uso y gestión de recursos más sustentable (agua, electricidad, etc.).

Movilidad y big data

Uno de los principales pilares que ha estructurado el urbanismo en el último siglo ha sido la movilidad (Ratti, 2016), hoy en día estas tecnologías están cambiando el modo de hacer las cosas y vivir en las ciudades (González, 2019). Por ejemplo, los alcaldes están implementando todo tipo de sensores que ayudan a conocer al detalle los flujos de tráfico para poder actuar sobre ellos y reducir los atascos. Las apps de transporte bajo demanda (como Uber o Waze, que basan su negocio por completo en la IA) y los viajes compartidos, ya están teniendo un impacto muy significativo en el tráfico de nuestras ciudades. Diversos estudios calculan que el tráfico de Nueva York podría reducirse en un 20% si la gente compartiera el coche, o que con solo un 50% de vehículos autónomos se podría mover todo Manhattan (Sassen y Ratti, 2019). También hay buenas razones para avanzar hacia la conducción autónoma, ya que ayudaría a la reducción de accidentes (que sigue siendo una de las principales causas de las muertes evitables en todo el mundo), o alteraría sustancialmente el reparto del suelo urbano además de reducir los atascos de forma significativa.

Redefinición de la salud por el uso masivo de datos.

La IA y el uso de los datos también nos permiten re-imaginar la salud ciudadana. Por ejemplo, ayudando a gestionar de forma más efectiva los desastres naturales, las emergencias, o la lucha contra las epidemias globales (Rodríguez, 2018). Uno de los ejemplos más impactantes ha sido el uso de datos masivos por parte dos ingenieros de Google durante la crisis del virus de la gripe H1N1 en 2009. La IA resultó ser clave para predecir el riesgo de esta infección de transmisión humana. Su ingenioso sistema demostró ser mucho más útil, predictivamente, que las estadísticas sanitarias oficiales, logrando ser de un incalculable valor en el momento más crítico (ante lo que la comunidad internacional se temía como una pandemia devastadora). Recientemente, el CEO de Google, Sundar Pichai, se lamentaba de no haber hecho nada para luchar contra la adicción a los opiáceos en Estados Unidos:“La tendencia de búsqueda, de recetas, la información… Todo estaba ahí hace 10 años. Si lo hubiésemos visto a tiempo podríamos haber ayudado” (Sandoval, 2019). Mientras escribo, todavía nos estamos enfrentando a la emergencia del Covid-19, si bien se están utilizando todo tipo de nuevas estrategias con la ayuda de la IA.

Otro ejemplo revolucionario ha sido el proyecto Underworlds1 del MIT Senseable City LAB (Ratti, 2019). Permite desarrollar un censo de la salud humana urbana obteniendo muestras directamente de las alcantarillas mediante el análisis de sus aguas residuales. Este proyecto permitió, por ejemplo, visualizar el virus de la gripe antes de que la gente de la ciudad lo tuviera, lo que tiene enormes implicaciones sanitarias2 . Ha logrado reinventar el enfoque del londinense John Snow al siglo XXI, para que sirva como una suerte de alerta temprana de las futuras enfermedades urbanas.

Un uso de los datos igualmente sorprendente es el que parte de la idea de que los pacientes deben ser una parte muy activa de un nuevo sistema sanitario. Páginas como patientslikeme.com, demuestran que una red de pacientes construida alrededor de datos estructurados tiene mucho que aportar. Entre otras cosas, la página recoge herramientas para registrar y compartir datos de casi cien dolencias distintas y tiene más de 440.000 pacientes inscritos, logrando unos avances sorprendentes en ensayos clínicos, o sirviendo de gran ayuda para sobrellevar determinados tratamientos o enfermedades (Stevenson, 2017, 28-29). Los algoritmos están demostrando su utilidad para buscar patrones de enfermedades y está revelando su gran utilidad luchando contra el cáncer, o mejorando la salud física o mental.

Seguridad predictiva

La seguridad en las ciudades también se encuentra ante un movimiento sísmico promovido por el uso de macrodatos y de algoritmos matemáticos. Diversos programas de policía predictiva permiten determinar las personas y los lugares con mayor riesgo de violencia, a resolver crímenes, incluso a predecir dónde se van a producir. Un estudio fascinante analiza el uso de los datos de los teléfonos móviles, los datos demográficos y la inteligencia artificial para predecir la delincuencia delimitada por zonas. En sus resultados experimentales con datos de delincuencia reales y de aplicaciones móviles en Londres, han obtenido una precisión de casi el 70% en la predicción de si una zona específica de la ciudad se convertirá en un barrio con delincuencia o no (Bogomolov, et al, 2014).

Muy recientemente la policía neoyorkina ha cambiado el clásico libro de notas por su versión digital para iPhone. Este cambio ha logra estandarizar el formato de la toma de notas policiales. Además, permite recopilar los datos relativos a la seguridad de todo tipo detenciones, respuestas a requerimientos de la emisora policial, multas, etc., o acceder a gran cantidad de información (en tiempo real) que antes se perdía (Kilgannon, 2020). El uso de big data también está ayudando a la policía de Nueva York o de Chicago a resolver los crímenes más rápidamente.

El algoritmo matemático en el que se basa el programa de PredPol, actúa como un pronosticador, destacando las zonas y las calles con más posibilidades de sufrir problemas de seguridad. No pronostica el futuro, aunque sí que predice el riesgo de que se produzcan acontecimientos futuros (no los acontecimientos en sí). En diversas pruebas realizadas en Los Ángeles pronosticó más del doble del número de delitos que los pronosticados por humanos, y en una fase de la prueba del Reino Unido, resultó que casi uno de cada cinco delitos fueron cometidos dentro de los cuadrados rojos determinados por las matemáticas. Nada en toda la historia humana ha sido capaz de ver el futuro delictivo con tal acierto. (Fry, 2019)

El uso y análisis de datos masivos también ha ayudado a la ciudad de Nueva York a predecir la localización de las llamadas conversiones ilegales de viviendas (en nuestro entorno denominados pisos patera), ya que suponen un grave riesgo de incendios para la ciudad (además de ser un foco de delitos, drogas, enfermedades y de plagas de insectos). El sistema, basado en datos masivos, logró determinar los edificios que requerían la atención más urgente ante posibles incendios. (Mayer-Schonberger, 2013)

En España también se han desarrollado herramientas muy innovadoras como Veripol3 capaz de predecir con un 90% de acierto si una denuncia es falsa, y otros algoritmos que están siendo muy útiles para luchar contra los delitos de odio.
Finalmente, la IA ayuda a minimizar costes de energía y emisiones, o a crear formas más sostenibles para utilizar los recursos. El metro de Madrid ha implementado un sistema de ventilación basado en inteligencia artificial que ha reducido su consumo de energía un 25%, evitando emitir 1.800 toneladas anuales de sus emisiones de CO2. Con estas tecnologías se facilita un diseño de los edificios bajo principios ecológicos que reduce drásticamente el consumo de energía. El edificio Solaris en Singapur, por ejemplo, aunque costó un 6,3 por ciento más que una construcción tradicional, logra que el ahorro energético y de agua alcance el 70 por ciento por metro cuadrado. Sólo basándonos en eso, el gasto se amortiza en ocho años. Barcelona y la Comunidad de Madrid con su proyecto CitizenLab4 , se encaminan en esta dirección de incrementar la eficiencia urbana.

En conclusión, aunque la sostenibilidad urbana es un empeño enormemente complejo, el uso del big data y la IA está ayudando a redefinir las ciudades de manera mucho más eficiente ecológicamente. Estas nuevas tecnologías están mejorando los procesos de sostenibilidad en aspectos clave como la salud y la seguridad, la movilidad o la eficiencia energética. Sin embargo, los datos masivos y la IA también nos sitúan ante enormes riesgos (O´Neil, 2018) como la falta de privacidad o la discriminación (Fu Lee, 2020). Esta redefinición más sostenible de lo urbano, necesitará de estas nuevas tecnologías, pero será inviable sin una mayor participación y control ciudadano (Ratti, 2016), necesarios para la creación de un entorno mucho más cohesionado.


Notas

1http://underworlds.mit.edu
 2Mientras se escribió este artículo el Canal de Isabel II, mediante el sistema VIGÍA, utiliza el mayor sistema de detección, vigilancia y visualización temprana del SARS-CoV-2 por análisis de aguas residuales en España https://www.canaldeisabelsegunda.es/sistema-vigia
3https://www.lavanguardia.com/tecnologia/20190414/461583468024/veripol-policia-nacional-inteligencia-artificial-algoritmo-denuncias-falsas.html
 4https://byzness.elperiodico.com/es/innovadores/20200128/madrid-big-data-ia-servicios-publicos-7825164
BibliografíaJohnson, Steven (2006): El Mapa fantasma. La historia real de la epidemia más terrorífica vivida en Londres. Ilustrae.

Bibliografía
Jacobs, Jane (2011). Muerte y vida en las grandes ciudades. Capitán Swing.
Terradas, Jaume (2006): Biografía del Mundo del Origen de la Vida al Colapso Ecológico. Barcelona. Destino.
Ratti, Carlo y Claudel, Matthew (2016): The city of Tomorrow: Sensors, Networks, Hackers, and the Future of Urban Life. Yale Universsity Press.
Sassen, Saskia. Ratti, Carlo y Zafra, Juan M.(2019). Ciudades sostenibles, #Foro Telos . Fundación Telefónica. Disponible en:
https://espacio.fundaciontelefonica.com/evento/foro-telos-ciudades-inclusivas-ciudades-sostenibles/
González Pascual, Manuel (2019) (aa.vv). Ciudades del Futuro. Fundación Innovación Bankinter Future Trends Forum. Disponible en:
https://www.fundacionbankinter.org/documents/20183/242154/Publicación+Ciudades+del+Futuro+ES/1cc5a265-0e25-4228-b770-78abd09ef625
Rodríguez, Pablo (2018): Inteligencia Artificial. Como cambiará el mundo (y tu vida). Barcelona. Deusto.
Hidalgo García, Mª del Mar (2017): Las ciudades como objetivo de desarrollo sostenible. Disponible en: http://www.ieee.es/Galerias/fichero/docs_informativos/2017/DIEEEI03-2017_Ciudades_Sostenibles_MMHG.pdf
Sandoval, Pablo J. (2019). Sundar Pichai, el hombre que ordena el mundo. Disponible en: https://elpais.com/elpais/2019/12/13/ideas/1576250324_999292.html
Stevenson, Mark (2017): Hacemos las cosas de otra manera. Cómo reiniciar el mundo. Barcelona. Galaxia Gutenberg.
Bogomolov, Andrey y Lepri, Bruno y Staiano, Jacopo y Oliver, Nuria y Pianesi, Fabio y Pentland, Alex. (2014). Once Upon a Crime: Towards Crime Prediction from Demographics and Mobile Data. Disponible en: https://www.researchgate.net/publication/265554568_Once_Upon_a_Crime_Towards_Crime_Prediction_from_Demographics_and_Mobile_Data
Kilgannon, Corey. Why the N.Y.P.D. Dropped One of Its Oldest Crime-Fighting Tools. Disponible en:
https://www.nytimes.com/2020/02/05/nyregion/nypd-memo-book.html
Fry, Hannah (2019): Hola mundo. Como seguir siendo humanos en la era de los algoritmos. Barcelona. Blackie Books.
Mayer-Schonberg, Viktor y Cukier, Kenneth (2013): Big data. La revolución de los datos masivos. Madrid. Turner.
O´Neil, Cathy (2018): Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia. Capitán Swing.
Fu Lee, Kay (2020): Superpotencias de la Inteligencia Artificial. China, Silicon Valley y el Nuevo Orden Mundial. Planeta/Deusto.
Kelly, Kevin (2017): Lo inevitable. Entender las 12 fuerzas tecnológicas que configuran nuestro futuro. Tell.
Dans, Enrique (2019): Viviendo en el futuro. Claves sobre como la tecnología está cambiando nuestro mundo. Barcelona. Planeta

Imagen
0 Comments

PRESENTACIÓN REVISTA TELOS 115: "Un MUNDO EN CONSTRUCCIÓN". Xabi Uribe-Etxebarria y Belinda Tato, protagonistas de su portada, debatirán junto a Juan M. Zafra

26/1/2021

0 Comments

 
Imagen
Imagen
REVISTA TELOS 115

La pandemia mundial a la que nos estamos enfrentando actualmente nos está obligando a replantearnos el mundo tal como lo conocíamos. El sistema de equilibrio que dábamos por hecho se ha tambaleado y necesitamos crear una nueva alternativa en todos los ámbitos de la sociedad: la salud, la educación, el trabajo, la cultura, las relaciones humanas… En definitiva, todo aquello que nos identificaba como civilización y que, tal vez, a la vista de la vulnerabilidad descubierta y de la capacidad de adaptación y resiliencia demostrada, se ha quedado obsoleto en una nueva era pos COVID-19.

TELOS no podía dejar analizar esta insólita situación y para ello, ha contado en su nuevo número con los miembros de su Comité Científico que, bajo el título Un mundo en construcción, han dibujado los futuros posibles que nos deja la pandemia. En su portada, la arquitecta Belinda Tato, cofundadora del estudio Ecosistema Urbano, y Xabi Uribe-Extebarria, fundador de Sherpa.ai, referencia global en inteligencia artificial (IA). Ambos serán también los invitados al evento de presentación de la revista, en el que Juan M. Zafra, director de TELOS, moderará un debate alrededor de lo que nos está pasando como sociedad y los aprendizajes que estamos adquiriendo.

El evento tendrá lugar el próximo 28 de enero de 19:00 a 20:00 en el Espacio Fundación Telefónica (Calle Fuencarra, 3 Madrid). La entrada puede reservarse de manera gratuita aquí. También podrá seguirse en streaming en la misma web de Fundación Telefónica y en redes con el hashtag #RevistaTelos. Al final de la presentación, se hará entrega de un ejemplar del número de forma gratuita.



Imagen


UN ADELANTO DE LA ENTREVISTA :

¿Cómo es el futuro?

Yo trato de ser muy cauto…

En estos casos suelo hacer referencia a una frase de Sócrates que nos ha llegado a través de los textos de Platón: “No hay más ignorante que el que cree saber lo que no sabe”. Nadie sabe a ciencia cierta cómo va a ser el futuro, hay tantas variables que la incertidumbre es altísima, un pequeño avance en inteligencia artificial o en neurotecnología lo puede cambiar todo. Pero al igual que hay incertidumbres también hay certezas, como que la humanidad va a cambiar más en los próximos 150 años que en el último millón de años. La inteligencia artificial cambiará por completo aspectos de nuestra vida cotidiana que llevamos milenios haciendo de una manera similar, como las relaciones humanas y el mercado laboral, entre otros. Más adelante, con la revolución biológica y la neurotecnología, cambiarán incluso nuestras habilidades físicas y mentales. Estamos ante el comienzo de una nueva era y debemos de asegurarnos de que, dentro de esas incertidumbres y posibilidades, vamos hacia ese futuro en el que la inteligencia artificial y la neurotecnología sean un complemento a nuestras vidas y no un sustituto. Que todas estas nuevas tecnologías y ciencias estén al servicio de la humanidad.

.....

​ENLACE A LA ENTREVISTA

VÍDEO de XABI URIBE-ETXEBARRÍA : KEYNOTE 2020 

​VÍDEO de la presentación el pasado día 28 de enero, a las 19 horas : 
0 Comments

José Manuel Sanjurjo Jul - El futuro tejido industrial (2009)

25/1/2021

0 Comments

 
discurso__sanjurgo.pdf
File Size: 299 kb
File Type: pdf
Descargar archivo

0 Comments

"China logra la supremacía cuántica con un sistema diferente al de Google" (ABC)

15/12/2020

1 Comment

 
Imagen

























DIARIO ABC, CIENCIA

SCIENCE 



China acaba de lograr la supremacía cuántica. Es decir, sus investigadores han conseguido crear un sistema cuántico tan potente que realiza una tarea casi imposible de llevar a cabo con los ordenadores clásicos. En concreto, el equipo llamado Jiuzhang ha podido resolver en tan solo 200 segundos un problema que al superordenador clásico más avanzado del mundo, la supercomputadora japonesa Fugaku, le costaría 600 millones de años en completar. Un hito, no exento de polémica, que se logra por segunda vez en la historia, después de que Google, con su chip Sycamore, lograra lo mismo en octubre de 2019. Los resultados acaban de publicarse en la revista « Science».

La proeza del equipo dirigido por Jian-Wei Pan, de la Universidad de Ciencia y Tecnología de China, reside en la forma en que han conseguido la supremacía cuántica. Los ordenadores clásicos se comunican entre ellos a través de «bits», el lenguaje binario que, a través de complejos cálculos matemáticos, convierte la información en unos y ceros. Sin embargo, en computación cuántica, los sistemas «hablan» en «cúbits», que pueden ser 1 y 0 a la vez (por el mismo principio que rige al famoso gato Schrodinger, vivo y muerto al mismo tiempo), lo que multiplica exponencialmente el rendimiento de esta tecnología. Es decir, con muchas menos operaciones, se pueden hacer cálculos mucho más potentes, lo que en la era del Big Data es una ventaja enorme (de ahí que grandes empresas como Google e IBM estén invirtiendo ingentes cantidades de dinero en esta tecnología).

Las formas de conseguir la supremacía cuántica.

Para conseguir estos cúbits teóricos hay que crear un sistema físico que los transporte y los manipule. Google lo consiguió a través de cúbits superconductores. Pero hay otras formas: desde trampas de iones a las exóticas cuasipartículas de Majorana, todos intentan crear un sistema que demuestre que estas nuevas máquinas cuánticas pueden realizar una tarea o un cálculo que esté completamente fuera de las capacidades de cualquier ordenador convencional. China lo ha logrado a través de un circuito óptico del muestreo de bosones: empleando una extraña propiedad cuántica de las partículas de luz (fotones), que viajan aleatoriamente en diferentes direcciones dentro de un circuito.

«No han creado un ordenador cuántico per se, sino un circuito óptico muy sofisticado que trabaja con luz cuántica», explica a ABC Juan José García Ripoll, físico teórico del Instituto de Física Fundamental (dependiente del CSIC). «Pero se trata de un experimento extremadamente difícil de llevar a cabo por la cantidad de elementos que tiene, por el uso de luz cuántica y la dificultad de mantener la coherencia cuántica de todo el sistema».

Este circuito es, de forma muy simple, algo así como una máquina de Galton: imaginemos un tablero vertical con varias filas de clavos. Desde arriba, caen bolas que botan de forma aleatoria sobre los clavos, llevando a las pelotas hacia un camino u otro hasta alcanzar la parte inferior del tablero. En el muestreo de bosones, las bolas serían los fotones (que son un tipo de bosón) y, los clavos, dispositivos ópticos o espejos, que hacen que la luz se propague en diferentes direcciones.

Sin embargo, las «pelotas» de luz cuántica no se comportan igual que las bolas físicas: los fotones poseen una extraña propiedad que se muestra cuando viajan a través de un divisor de haz (un espejo de los anteriores), que divide un solo rayo en dos que se propagan en diferentes direcciones. De forma paralela, si dos fotones idénticos golpean el espejo exactamente al mismo tiempo, no se separan entre sí y viajan en la misma dirección. Es decir, como si esas bolas físicas pudieran, en cada encuentro con un espejo, multiplicarse en dos o, en caso de llegar al mismo a la vez, convertirse en una sola.

La cuestión aquí sería averiguar los posibles caminos de los fotones en el circuito y su destino final (cuántos salen y por dónde), una tarea que se complica cuantas más partículas de luz, entradas, salidas, caminos y espejos hay en el circuito, además de por la extraña capacidad de los fotones de dividirse o agruparse de forma aleatoria. De ahí que a las computadoras clásicas les cueste mucho más trabajo elaborar estos cálculos. Sin embargo, al sistema cuántico chino la tarea solo le ha costado 200 segundos, consiguiendo así la supremacía cuántica.

«Estudiar experimentalmente todo eso y sacar toda la estadística es laborioso, pero ellos han demostrado que es posible», afirma García Ripoll.

En concreto, el dispositivo de muestreo de bosones llamado Jiuzhang utilizó pulsos de láser enviados a un laberinto de 100 entradas, 100 salidas, 300 divisores de haz y 75 espejos. Su ordenador cuántico logró detectar hasta 76 fotones en cada experimento, con una media de 43 fotones de 100 (lo que equivaldría a 100 cúbits, casi el doble que en la versión de Google, que contaba con 53, según explica en su blog el físico Francisco R. Villatoro). El equipo chino creador de Jiuzhang afirma que tiene una fiabilidad del 99%.

Con respecto a las diferencias del sistema de Google, García Ripoll señala: «El sistema no es reconfigurable, por lo que cada vez que hacen el experimento tienen que modificar a mano toda la configuración. Aun así es un equipo muy sofisticado y, en este sentido, es similar a la filosofía del experimento de Google con su ordenador cuántico, que generaba una sucesión de cúbits aleatorios que es muy difícil de reproducir de forma clásica». También ambos comparten su objetivo ad hoc: no tienen aplicaciones directas salvo demostrar la supremacía cuántica.

Un experimento arduo.

Hace una década, los físicos teóricos Scott Aaronson y Alex Arkhipov demostraron que el muestreo de bosones solo era posible con equipos cuánticos y que, además, sería la forma más fácil de conseguir la supremacía cuántica deseada. La segunda hipótesis estaba errada, pero no así la primera, si bien algunos no confiaron en sus tesis. «Este estudio demuestra que es factible llegar a la supremacía cuántica usando muestreo de bosones fotónicos, algo que mucha gente había dudado, y que representa una ruta de hardware completamente diferente a la de los cúbits superconductores que usó Google», explica a NewScientist el propio Aaronson.

Pero, a pesar de ser un gran paso en la computación cuántica, la humanidad aún se encuentra lejos de conseguir ordenadores cuánticos «de sobremesa»: el dispositivo solo sirve para esta tarea de muestreo de bosones, es decir, algo extremadamente específico sin mucho más recorrido práctico. «No significa construir una computadora cuántica escalable, ni un ordenador cuántico universal o útil», apunta Aaronson.

«No es un ordenador cuántico, sino un equipo mucho más específico que pertenece al ámbito de la física teórica. Es un experimento que en sí mismo no es útil, aunque se puede reformatear para aplicarlo a algún ámbito específico, como la química cuántica. En realidad es un aparato para llevar la mecánica cuántica a límites que hasta hace poco no se podían alcanzar y conseguir la supremacía cuántica. No es computacionalmente útil, pero es un hito científico impresionante», señala García Ripoll por su parte.

El siguiente paso, según los investigadores chinos, será, en efecto, conseguir pausar el experimento, realizar mediciones y redirigir a los fotones por el circuito, aunque será un logro extraordinariamente difícil de conseguir. Pero pensemos que, hace apenas cinco años, la supremacía cuántica aún estaba muy lejos. Y hoy la humanidad la ha conseguido dos veces. De momento.




1 Comment

Publicada la Estrategia Nacional de Inteligencia Artificial

2/12/2020

0 Comments

 
Imagen
LAMONCLOA.GOB.ES


El presidente del Gobierno, Pedro Sánchez, ha presentado en el Palacio de la Moncloa la Estrategia Nacional de Inteligencia Artificial (ENIA), una de las propuestas fundamentales del 
Plan España Digital 2025 lanzado el pasado mes de julio.



El objetivo de esta Estrategia es generar un entorno de confianza respecto al desarrollo de una Inteligencia Artificial (IA) inclusiva, sostenible y que ponga a la ciudadanía en el centro. La Estrategia Nacional de Inteligencia Artificial "busca situar a nuestro país en la línea de los países líderes en la investigación y el uso de una Inteligencia Artificial confiable al servicio del desarrollo económico y social, al servicio de nuestra modernización económica", tal y como ha explicado Pedro Sánchez. 


A la presentación de la Estrategia Nacional de Inteligencia Artificial han acudido, además del presidente del Gobierno, la vicepresidenta tercera y ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño; la ministra de Educación y Formación Profesional, Isabel Celaá; y la ministra de Industria, Comercio y Turismo, Reyes Maroto. El acto ha contado con las intervenciones de Pilar Manchón, directora senior de estrategia de investigación en IA en Google; de Rafael Yuste, neurobiólogo impulsor del proyecto BRAIN de Estados Unidos y de la International Brain Initiative; de Inmaculada Martínez, pionera tecnológica en Inteligencia Artificial y digitalización; y de Pablo Rodríguez, investigador en desarrollos tecnológicos a largo plazo sobre tecnologías disruptivas.

La IA como vector de crecimiento económico

La Estrategia Nacional de Inteligencia Artificial es el componente 16 del Plan de Recuperación, Transformación y Resiliencia de la economía española y nace como un marco dinámico, flexible y abierto a la aportación de empresas, ciudadanos, agentes sociales y resto de Administraciones.

LFoto: Pool Moncloa/Fernando Calvoa IA es una de las tecnologías con mayor potencial de transformación e impacto en todas las áreas de actividad productiva, además de suponer un motor de innovación y un importante vector de generación de empleo de calidad. Al respecto, Pedro Sánchez ha destacado que con "la Inteligencia Artificial se transformará el mercado laboral español y aumentará el número de empleos". La estrategia resultará fundamental de cara a incorporar la IA como factor de mejora de la competitividad y el desarrollo social, y lo hará, además, impulsando desarrollos tecnológicos que ayuden a proyectar el uso de la lengua española en los ámbitos de aplicación de la IA.
La puesta en marcha de esta estrategia movilizará una inversión pública de 600 millones de euros en el período 2021-2023, a los que se añadirá la aportación del fondo Next Tech de naturaleza público-privada y que persigue impulsar el emprendimiento en tecnologías digitales habilitadoras. En los Presupuestos Generales del Estado para 2021 se prevén 330 millones de euros para Inteligencia Artificial y Economía del Dato.

Un plan con seis ejes estratégicos

La ENIA cuenta con seis ejes estratégicos. En primer lugar, el impulso de la investigación científica, el desarrollo tecnológico y la innovación en Inteligencia Artificial; en segundo lugar, el fomento de las capacidades digitales, el desarrollo del talento nacional y la atracción del internacional; el tercero, el desarrollo de plataformas de datos e infraestructuras tecnológicas que den soporte a la IA; en cuarto, integrar la IA en las cadenas de valor para transformar el tejido económico; en quinto, impulsar el uso de la IA en la Administración Pública y en las misiones estratégicas nacionales y, finalmente, el establecimiento de un marco ético y normativo que garantice la protección de los derechos individuales y colectivos, con el bienestar social y la sostenibilidad como ejes vertebradores.

En cada uno de estos seis ejes se recogen una serie de medidas, hasta un total de 30. Por ejemplo, el impulso a la investigación en IA; la promoción de nuevos centros nacionales de desarrollo tecnológico multidisciplinar con especial foco en neurotecnologías, o la creación de programas de ayudas a empresas para el desarrollo de soluciones en IA y datos.

Asimismo, se propone la puesta en marcha de una mayor oferta formativa universitaria y en formación profesional o la puesta en marcha del Programa "SpAIn Talent Hub". Se creará la Oficina del Dato a nivel nacional y la figura del 'Chief Data Officer', la creación de espacios compartidos de datos y repositorios descentralizados y accesibles, participando en la creación de repositorios de datos a nivel de la UE. Se reforzarán las capacidades de supercomputación y se impulsará el Plan Nacional de Tecnologías del Lenguaje.

Además, se lanzarán programas de ayudas para empresas con el fin de incorporar la IA en los procesos productivos y de las cadenas de valor y se lanzará el "Fondo Next Tech" de capital riesgo público-privado para impulsar el emprendimiento digital y el crecimiento de empresas. Se desarrollará un programa de algoritmos verdes.

En el ámbito del sector público, se pondrá en marcha un laboratorio de innovación para nuevos servicios y aplicaciones de la IA (GobTechLab) y se incorporará la IA a la Administración Pública para mejorar la eficiencia. Se impulsará una gestión pública basada en datos.

Y, finalmente, por el lado ético y normativo de protección de derechos, se pondrán en marcha observatorios para evaluar el impacto social de los algoritmos, se desarrollará un sello nacional de calidad en IA y se elaborará una Carta de Derechos Digitales.

Por qué es necesaria la ENIA

El despliegue efectivo de la Inteligencia Artificial es crítico para afrontar la necesaria transformación digital de la economía. En ese sentido, la IA aportó 1.760 millones de euros al PIB mundial en 2018 y se estima que su contribución superará los 14 billones de euros para el año 2030.
Se trata, por tanto, de una tecnología en auge caracterizada por un gran potencial de transformación desde el punto de vista tecnológico, económico, ambiental y social dada su penetración en todos los sectores, así como su elevada capacidad de impacto, rápido crecimiento y contribución a la mejora de la competitividad.
En la actualidad, hay sectores industriales con un margen de mejora potencial para aprovechar este despliegue, tales como la industria de materiales, el transporte y la movilidad, la sanidad o el sector financiero, entre otros. En ese sentido, la IA implicará la posibilidad de mejorar la eficiencia de procesos y la dotación de servicios personalizados a la ciudadanía.
La ENIA permitirá mejorar la preparación del tejido productivo español de cara a impulsar su competitividad en el plano europeo e internacional. Se trata, por tanto, de un paso fundamental en la apuesta por la transformación digital de la economía y la sociedad a través del desarrollo de tecnologías disruptivas de alto valor añadido.
España afronta el reto del despliegue de la IA contando con determinadas ventajas competitivas en distintos sectores estratégicos. Así, España cuenta ya con instalaciones de alto rendimiento computacional para el procesado de cantidades masivas de datos y con excelentes grupos de I+D+I tanto públicos como privados.

​
VER y DESCARGAR


0 Comments

Juan Luis MANFREDI: "Toma de decisiones e incertidumbre radical", en CINCO DIAS

24/11/2020

0 Comments

 

​No cabe esconder las decisiones estratégicas de la compañía tras un velo de documentos, datos y probabilidades.

Enlace al artículo en  CINCO DÍAS


​Leo, por sugerencia de Andrés Ortega, el libro de “Radical Uncertainty: Decision-Making Beyond the Numbers” escrito por John Kay y Lord Mervyn King. Se publicó en marzo de 2020, poco antes de la expansión global de la pandemia y, quizás por este motivo, me resulta de gran interés para la dirección estratégica. John Kay es una referencia académica de primer orden y un ponente habitual en conferencias, encuentros TED y otros espacios divulgativos. Lord Mervyn King fue el gobernador del Banco de Inglaterra entre 2003 y 2013. Vivió en primera persona la gran recensión de 2008 y su figura ha sido alabada por su templanza, más allá de las decisiones concretas. En tiempos de populismo financiero, no es poca virtud. 

Me interesa el libro porque ofrece una visión panorámica sobre la nueva estructura de la economía global. Desde 2008, se han consolidado dinámicas concretas: la reordenación del comercio global, el auge de China, la transformación digital, la industria de los datos y, sobre todo, la incertidumbre. Los autores defienden que el modo en que hemos estudiado y pensado la incertidumbre ha dificultado la toma de decisiones. El mundo carece de un sentido racional, una pauta que pueda reducir las decisiones a probabilidades (0 y 1, sí y no, blanco y negro) o un sentido teleológico. Más aún, los autores sostienen que las probabilidades ni siquiera existen en la mayoría de las decisiones económicas, empresariales y políticas. Con el mítico ejemplo de la moneda, se entiende bien que las decisiones basadas en cálculos matemáticos sin añadir el criterio social, histórico o antropológico fracasan. Tras la lectura, encuentro una vertiente aplicada, tres lecciones que comparto ahora.

La arrogancia del dato. La adquisición de información ordenada y distribuida en tablas y hojas de dato ha inundado las mesas de la alta dirección. El dato indica. El dato señala. El dato asegura. Es un error transcendental en la medida en el que dato oculta un diseño de investigación, una pregunta, un paradigma. El dato no opera en el vacío y pensar que el dato es objetivo, prístino o probo impide entender la estructura que opera tras él. Los datos son respuestas sistemáticas, pero no son la verdad. En su dimensión política, los data politics ya se preocupan por los sesgos cognitivos que se generan en la creación de políticas públicas basadas en datos, pero sin contexto público o social. Del mismo modo, aquellas organizaciones que consideren que tienen razón porque tienen buenos datos desconocen el impacto de la incertidumbre radical en la cuenta de resultados. 

El criterio social. El acceso a las bases de datos tiende a convertirse en una commodity, ya que numerosas multinacionales ofrecen el mismo servicio. Será difícil diferenciarse por la vía de la acumulación y captura de datos, por lo que defiendo la recuperación de la noción de inteligencia directiva. El directivo tiene que ampliar su conocimiento en disciplinas sociales, tales como la historia o la antropología. La máquina ya extrae datos, pero carece de conocimiento social para liderar proyectos, empatizar con los clientes o generar confianza social. Ahí estará el valor diferencial de un buen directivo, puesto que los datos -acertados o no- se devalúan ante fenómenos inesperados. Así, defiendo que la captura de información puede externalizarse (empresas de servicios que provean de fuentes y tendencias), pero no así la toma de decisiones sobre qué preguntar a los datos, qué corrientes o disciplinas mezclar o qué dato nos oculta la verdadera intención del comprador o el usuario. Sugiero aquí leer la última obra publicada de Hans Ulrich Gumbrecht, quien desde la filosofía política y la sociología explica mejor que ningún otro informe las claves del éxito de la industria tecnológica de Silicon Valley. No busquen la idea de espíritu del tiempo en los balances o estados financieros. 

Cisnes negros, dragones y rinocerontes grises. A menudo, evaluamos a posteriori y pensamos que las decisiones que hemos tomado responden a modelos y taxonomías preexistentes. Las empresas innovadoras aciertan cuando rompen los cánones e inventan nuevos mercados, bien sean necesidades reales o estimulada. La virtud de la incertidumbre radical consiste conocer bien las estrategias triple A: anticipar, adaptar y actuar. Y, en este último punto, la acción exitosa requiere cualidades de liderazgo por encima de avales numéricos. De nuevo, aquí recurro a las reflexiones de Roger Martin para defender que el capitalismo creativo. El dato es intensivo en rutina y ahí es imbatible. Por eso, el directivo debe aportar otras cualidades a la organización: colaboración, credibilidad, confianza y reputación. 

En síntesis, la incertidumbre radical, ya antes de la pandemia, es el estado natural de los negocios. No cabe esconder las decisiones estratégicas de la compañía tras un velo de documentos, datos y probabilidades. La falsa sensación de seguridad que desprenden los planes de expansión, las hojas de cálculo o las previsiones perjudica a la organización y convierte al directivo en un mero ejecutor de programas. Ahí, además, la inteligencia artificial ofrece mejores resultados. No es, por tanto, el camino para resolver las crisis ni para transformar las instituciones. Ojalá la lectura del libro -con o sin COVID19 en el año 2021- nos permita dirigir las organizaciones con nuevas ideas.


0 Comments

#ForoTelos2020: "El dominio mental" con el analista Pedro Baños (Geoestratego)

24/11/2020

0 Comments

 

En este encuentro, enmarcado en el Foro Telos 2020  y desde el auditorio de TELEFONICA, la periodista Marta Peirano entrevista al analista geopolítico Pedro Baños y conversan sobre su nuevo libro, ‘El dominio mental’. Tras sus exitosos ‘Así se domina el mundo’ (traducido a 11 idiomas) y ‘El dominio mundial’, ambos publicados por Ariel, Pedro Baños dirige ahora su atención a las técnicas que el poder utiliza para controlar nuestras emociones porque ‘quien consigue controlar nuestra mente controla el poder’.
​

Imagen
0 Comments

“TRANSFORMO DATOS EN HISTORIAS, CON UNA PARTE DE CIENCIA Y UNA DE ARTE”.... César HIDALGO

6/10/2020

0 Comments

 

Desarrolla herramientas capaces de convertir en narrativas enormes cantidades de información desde un mar de datos conocido como Big Data, donde es capas de “leer” patrones en múltiples y heterogéneas interconexiones, efectuando gravitantes predicciones aplicables a sistemas naturales, sociales y económicos.

Imagen
VÍA  CONICYT.  (Publicado 20-04-2016 y actualizado)


César Hidalgo (34) habla muy rápido. Quizás demasiado para los ojos de un observador casual, pero pronto sus palabras comienzan a hacer sentido y sus ideas capturan la atención de los asistentes al evento final del campamento de investigación B3 (Bits, Bots & Behavior), que reúne a estudiantes del prestigioso Media Lab del Instituto Tecnológico de Massachusetts (MIT) con sus pares chilenos. Allí el científico nacional conversó con Explora (Programa Nacional de Divulgación y Valoración de la Ciencia y Tecnologia, del Gobierno de Chile) sobre sus motivaciones, proyectos y las infinitas posibilidades de los datos, su principal línea de investigación.

“El Media Lab es un laboratorio de invención. Lo que buscamos es generar herramientas que produzcan un impacto positivo en el mundo”, cuenta el doctor en Física en la Universidad de Notre Dame (Francia) y profesor asociado de Ciencia y Artes Mediales del MIT, donde lidera el grupo de Macro Conexiones. Su labor se centra en comprender la evolución de la información en los sistemas naturales, sociales y económicos; además de desarrollar motores de visualización de enormes cantidades de datos, las que se hacen difíciles de manejar considerando el creciente volumen de información disponible (Big Data).

El físico formado en la Universidad Católica de Chile, quien vive en la ciudad de Somerville en el estado de Massachusetts junto a su esposa Anna y su pequeña hija Iris, acaba de lanzar el libro “Por qué la información crece” (Why Information Grows. Basic Books, 2015). Coescribió “Atlas de la Complejidad Económica” (The Atlas of Economic Complexity. MIT Press, 2014) y suma más de cinco mil citas en sus publicaciones académicas y 8 millones de visitas en sus motores de visualización, en 2021 publicará "How Humans Judge Machines"

Sistemas Complejos y Big Data
​

La definición de un sistema complejo señala que se compone de “varias partes interconectadas o entrelazadas cuyos vínculos crean información adicional”, que no era visible con anterioridad por el observador. De las interacciones entre los elementos “surgen propiedades nuevas que no pueden explicarse a partir de las propiedades de los elementos aislados”. Es decir, el todo es más que la suma de sus partes.

¿Cómo definiría usted un sistema complejo?

Son sistemas que tienen muchas partes, donde todas son distintas. Son heterogéneos con patrones de conexiones que no son triviales, es decir, no como una grilla sino que hay nodos que están más conectados, otros poco vinculados, algunos que forman triángulos, unos solos, etc. Además tienen la capacidad de adaptarse y evolucionar.

Por ejemplo, las sociedades, la economía e incluso la manera en que se comportan las proteínas dentro de la célula son sistemas complejos. Estos no se pueden entender a través de promedios, o los totales, o los números simples. Si yo quiero hallar la diferencia entre un hipopótamo y otro animal de peso similar como un búfalo grande, si lo que tomo es su peso, porcentaje de agua en el cuerpo y de proteínas, no podría diferenciarlos.Pero si miro su genética y empiezo a ver estas cosas en mayor detalle, la heterogeneidad de las partes, cómo interactúan, de qué manera se conectan, cuál parte “prende” a un gen o lo “apaga” en un animal y el otro, ya en ese contexto voy a ser capaz de distinguirlos entre ellos.

¿Qué predicciones teóricas sociales se desprenden de los datos que analizas?

Hay cinco que hemos probado que son bastante fuertes, tres de ellas son sobre el desarrollo industrial de los países. La primera es que si uno sabe el set de productos que una determinada nación hace, uno puede predecir los que hará en el futuro; la segunda es que si además conozco qué tan complejos son esos bienes, uno consigue pronosticar qué nivel de ingresos tendrá y así cuál será el crecimiento próximo; la tercera es que con el mismo conocimiento basal, uno logra anticipar el nivel de desigualdad que sufrirá. Esas tres predicciones son del mismo tema: si uno sabe qué productos genera un país, unos puede predecir qué va a hacer después, cuánto va a crecer y qué tan desigual es.

¿En qué área esto se hace más evidente?

En el ámbito de la evolución de la información, en una escala de tiempo más larga -no en los últimos 50 años sino que en los últimos miles de años- hemos sido capaces de demostrar que cuando los medios de comunicación cambian, se introducen transformaciones abruptas en la tasa de personas memorables que se recuerdan. Por ejemplo, antes de la invención de la imprenta no recordamos a casi ningún artista o científico; después de ella, evocamos a muchos científicos, artistas, pintores y compositores. Después de la creación de la televisión empezamos a retener actores, que existieron siempre desde la antigua Grecia, pero nunca fueron conocidos hasta el desarrollo de la pantalla, porque no había un instrumento capaz de grabar la interpretación de una obra. Entonces los medios de comunicación transforman qué recordamos y qué tanto recordamos.

¿Cómo detecta narrativas en el mar de información que es el Big Data?

Transformo datos en historias, en eso hay una parte de ciencia y una de arte. En lo científico lo primero que trato de hacer es encontrar los patrones comparativos más simples en los datos que te puedan empezar a generar una historia. Porque no solo quiero generar una historia, sino que ésta sea lo suficientemente simple para que la gente entienda. Una manera de buscar esto es encontrando outlayers: al buscar tendencias, hay lugares, personas o grupos que se desvían de esa tendencia, y uno se empieza a preguntar por qué.
Muchas veces vas a buscar datos para explicar por qué sucede esto. La otra manera es generando herramientas de visualización que produzcan largas narrativas con muchos datos del mismo lugar, entidad o empresa, y al ver esas relatos como humano, uno empieza a hacer conexiones que no podría hacer si uno ve un gráfico solo, sino que ocurren entre las líneas al pasar de un gráfico a otro. Esto ayuda a extraer narrativas. Mientras que en la parte de arte, uno tiene herramientas, hay una sensibilidad, conoce algo contextual sobre ese sistema que te ayuda a darte cuenta cuál sería la pregunta interesante.

Chile en el Mundo. ¿Qué predicen los datos sobre la economía nacional?

Está anclada al precio internacional de los minerales, así que el futuro de la economía chilena es algo conocido. Además tiene una complejidad intermedia puesto que el recurso mineral es básicamente el que determina el nivel de ingreso y también el de desigualdad. Es importante entender en ese contexto que en Chile este último es bien alto, no solo por asuntos institucionales o culturales, sino que también porque el set de industrias que la nación tiene generan mucha riqueza con una cantidad de empleo muy baja, puesto que corresponden a industrias de capital intensivas. Es decir, con alta concentración del poder, al tener estructuras jerárquicas. No es lo mismo manejar una minera, que una empresa de software. En una mina requieres de un escalafón porque quieres que las personas respeten los protocolos de seguridad, los horarios, etc. En cambio en una compañía de software todo es más creativo y fluido.

A su juicio ¿Ha cambiado en algo esto en Chile en el último tiempo?

Yo veo que hay una parte importante de los chilenos, como la Generación X o los Millennials, que están empujando de distintas maneras el desarrollo de industrias no tradicionales en el país. En ese punto Chile no tiene nada que envidiarle a otras latitudes.

¿Cuál es su análisis de la memoria colectiva chilena?

Nosotros la vemos de una manera bastante estrecha porque la ordenamos empíricamente basándonos en las personas que nacieron en un país que son globalmente famosas. Entonces, la memoria colectiva de Chile incluye a Pablo Neruda, Iván Zamorano, Marcelo Ríos, pero también incluye a Pinochet y Allende. Si uno se sube a un taxi en Moscú o en Tokio, en general los tres personajes chilenos que conocen son Neruda, Pinochet y Allende. De cierta manera los individuos que son reconocidos globalmente te cuentan cuál es la narrativa de esa nación y eso es lo que queda en el recuerdo colectivo.
Son las cosas que por un lado nosotros guardamos en los medios de información, pero por otra parte son aquellas que repetimos en los actos de comunicación, y esa reproducción es una medida cuantitativa de lo que es la fama. La memoria colectiva de Chile está centrada en la política, el deporte y la escritura; acorde al nivel de desarrollo cultural que tenemos, que es intermedio. Este país no ha generado científicos famosos, inventores o cineastas célebres, porque nuestro desarrollo cultural es en las categorías más comunes, las más fáciles de alcanzar. Todos los países tienen un político famoso, por ejemplo Zimbabwe con Mugabe, Sudáfrica con Mandela, también hay escritores; Colombia con García Márquez… pero ¿conocemos un científico famoso de Colombia? No todavía.

¿Se debe así al nivel de desarrollo del país? ¿Y qué rol juega la ciencia?

Hay una escalera de desarrollo cultural que va de las formas más simples y comunes, a las más complejas; los países que están más arriba en esta escalera son naciones que ya tienen un output muy grande en las formas más simples, se encuentran en un estadio de desarrollo más alto que nosotros. De hecho, hay una ley logarítmica que dice que si tú vas a ser un país que va a producir un científico, por cada uno de ellos vas a tener 10 escritores afamados; y por cada 10 hombres de ciencia gloriosos vas a engendrar un inventor famoso. En un dataset que hicimos de personas famosas en el mundo de acuerdo a Wikipedia, de 11.334 personas listadas, Chile tenía 27.

Presentación:  "How Humans Judge Machines" 
​
0 Comments

Curso Online (MOOC): Radicalización violenta, análisis, detección y prevención.

6/10/2020

3 Comments

 
Imagen
Sobre este curso

Este MOOC estudia y analiza qué hay detrás de muchas de las acciones violentas y terroristas que, en principio, resultan incomprensibles para la mayoría de los ciudadanos. En muchas ocasiones, estos actos se desatan de procesos previos de radicalización de diferente índole. Procesos que no solo son significativos porque puedan acabar en violencia, sino porque también revelan que la radicalización ideológica o ideológico-religiosa es, en sí misma, un asunto público de gran relevancia que atañe a la cohesión social y a la polarización de nuestras sociedades democráticas.

Si como ciudadano te interesa lo que ocurre en la sociedad y quieres tener un conocimiento riguroso acerca de lo que hay detrás de muchos de los actos violentos que suceden, te animamos a que analices con nosotros los procesos de radicalización violenta.

En este curso contamos con grandes expertos y profesionales que trabajan en la materia y que provienen de diferentes ámbitos: Cuerpo Nacional de Policía, Guardia Civil, Instituciones Penitenciarias y Universidad, Judicatura y Fiscalía. El amplio abanico profesional que abarca este MOOC te ofrecerá puntos de vista diversos sobre la problemática estudiada.

Qué vas a aprenderLos contenidos del curso se centran en:
  • La conceptualización del fenómeno de la radicalización.
  • El proceso de radicalización violenta.
  • Los indicadores que denotan la existencia de un proceso de radicalización y su medición.
  • El modelo multiagencia como forma de prevención.
  • La prevención a distintos niveles de gobierno y su coordinación para una respuesta eficaz.

Requisitos

No es necesario que tengas conocimientos previos en la materia. Este curso te ofrecerá los contenidos básicos para que sigas investigando, ya que abarca todos los ámbitos necesarios para obtener una visión introductoria, sólida y global sobre el fenómeno de radicalización.

Es especialmente interesante para profesionales que trabajan con jóvenes y que necesiten tener un conocimiento más profundo del fenómeno que les ayude en el desempeño de sus tareas. También es recomendable para estudiantes del ámbito de las ciencias sociales, ya que les permite tener un conocimiento riguroso de lo que hay detrás del terrorismo y de las acciones violentas. Es de gran utilidad para profesionales de la Justicia. Y además, puede realizarlo cualquier persona que quiera conocer los problemas que afectan profundamente a la sociedad y al bienestar público.

Profesorado​

Rut Bermejo Casado. Es licenciada en Derecho (UCM, 1996) y en Ciencias Políticas y Sociología (UNED, 2000) y Doctora en Estudios Europeos (URJC, 2007) y actualmente es Profesora Contratada Doctora en la Universidad Rey Juan Carlos de Madrid, donde desde el año 2004 trabaja en el análisis de políticas públicas vinculadas al ámbito de justicia e interior y es experta en metodología de investigación.

Isabel Bazaga Fernández.  Es licenciada en Ciencias Políticas y Sociología (UCM, 1988) y Doctora en Ciencia Política (UCM, 2015). Actualmente es Profesora Titular de Universidad en la Universidad Rey Juan Carlos de Madrid e investigadora permanente del Instituto Universitario de Investigación Ortega y Gasset de Madrid.

Manuel Tamayo Sáez. Es licenciado Sociología (UCM) y Doctor en Sociología (UCM, 2002). Actualmente es Profesor Contratado Doctor en la Universidad Rey Juan Carlos de Madrid e investigador permanente del Instituto Universitario de Investigación Ortega y Gasset de Madrid.

​

ENLACE al curso.

Imagen
3 Comments

WEBINAR: INTRODUCCIÓN AL MACHINE LEARNING (IMMUNE Technology Institute)

5/10/2020

0 Comments

 
Imagen

El mundo del Machine Learning... un mundo complejo y muy extenso, pero ¿por dónde empezar?

En este webinar se verá una introducción al Machine Learning y a las principales técnicas que se usan hoy en día. 

Además de hacer un repaso sobre los pilares en los que se basa el Machine Learning junto a los principales problemas que la industria afronta ahora mismo.

PONENTE: 
​
Alejandro Díaz es Ingeniero Aeroespacial. Centró sus estudios posteriormente en Machine Learning y Inteligencia Artificial y Software en Berlín. Ha trabajado en el departamento de I+D de Altran como desarrollador Python, posteriormente trabajó como Machine Learning Engineer para una startup estadounidense y finalmente en BBVA. Actualmente trabaja en Australia donde continúa formándose como especialista en Data Science.

Apuntate en este ENLACE. 


0 Comments
<<Previous

    José Manuel Rábade Roca 

    Ph.D. Ciudadano crítico. Trabajando e investigando en seguridad, pero ante todo abierto al cambio. 
    ​Miembro colaborador  de varias asociaciones (Trafpol, Icono14). 


    Archivos

    Marzo 2021
    Enero 2021
    Diciembre 2020
    Noviembre 2020
    Octubre 2020
    Septiembre 2020
    Mayo 2020
    Abril 2020
    Marzo 2020
    Febrero 2020
    Enero 2020
    Diciembre 2019
    Noviembre 2019
    Octubre 2019
    Septiembre 2019
    Enero 2019
    Diciembre 2018
    Octubre 2018
    Mayo 2018
    Febrero 2018
    Julio 2017
    Abril 2017
    Febrero 2017
    Junio 2016
    Mayo 2016
    Abril 2016
    Marzo 2016
    Junio 2015
    Marzo 2015
    Enero 2015
    Octubre 2014
    Septiembre 2014
    Marzo 2014

    Fuente RSS

Con tecnología de Crea tu propio sitio web único con plantillas personalizables.
  • Inicio
  • Proyecto/s
  • Publicaciones
  • Enlaces
  • Contacto