Ensayos de Filosofía
 Número 10, 2019, semestre 2, artículo 7
Publicado 16 noviembre 2019


Este trabajo identifica aspectos relevantes para un programa de desarrollo ético de la investigación en Inteligencia Artificial que diferencie la estrategia de la Unión Europea de la de Estados Unidos y China. Debe involucrar a actores estatales y privados cualificados en un esquema de capacitación sujeto a rendición de cuentas.


estrategia europea en IA

ética de la investigación

filosofía de la técnica

inteligencia artificial

percepción pública de la ciencia


Albayati, M. (y B. Issac)

2015 "Analysis of Intelligent Classifiers and Enhancing the Detection Accuracy for Intrusion Detection System", International Journal of Computational Intelligence Systems: 8 (5): 841-853.




Arkin, R. C.
2010 "The Case for Ethical Autonomy in Unmanned Systems", Journal of Military Ethics: 9(4): 332-341.




Au, W. W.
2008 "Devising inequality: a Bernsteinian analysis of high‐stakes testing and social reproduction in education", British Journal of Sociology of Education: 29(6): 639-651.




2015 "Autonomous Weapons: An Open Letter From AI & Robotics Researchers".



Autor, D. H.
2015 "Why Are There Still So Many Jobs? The History and Future of Workplace Automation", Journal of Economic Perspectives: 29(3): 3-30.



Barrère, A. (y B. Delvaux)
2017 "La fragmentation des systèmes scolaires nationaux", Revue internationale d’éducation - SÈVRES: 76: 39-49.




Bertocchi, G. (y M. Spagat)
2004 "The evolution of modern educational systems", Journal of Development Economics: 73(2): 559-582.




Bilton, N.
2014 "Artificial Intelligence as a Threat". nytimes.com: Nov., 5.





Borowiak, C. T.
2011 Accountability and democracy: the pitfalls and promise of popular control. Oxford University Press.





Bostrom, N. (A. Dafoe y C. Flynn)
2016 Desiderata in the Development of Machine Superintelligence (Vol. v. 3.6).




Bostrom, N. (y E. Yudkowsky)
2013 "The ethics of artificial intelligence", En Cambridge Handbook of Artificial Intelligence (p. chap. 15).


Brooks, R.
1986 "A robust layered control system for a mobile robot", IEEE Journal on Robotics and Automation: 2(1): 14-23.


1991 "Intelligence without representation". Artificial Intelligence: 47(1-3): 139-159.

https://doi.org/10.1016/0004-3702 (91) 90053-M


Brynjolfsson, E. (y A. McAfee)
2014 The second machine age: Work, progress, and prosperity in a time of brilliant technologies. NY, London, WW Norton and Co.


Carr, N.
2014 The glass cage: automation and us. New York, W.W. Norton & Company.


Carrigan, C. (y C. Coglianese)
2016 George J. Stigler, “The Theory of Economic Regulation”. (M. Lodge, E. C. Page, & S. J. Balla, eds.) (Vol. 1). Oxford University Press.




Cerna, L.
2014 Trust: What it is and Why it Matters for Governance and Education (OECD Education Working Papers, No 108).



Crary, J.
2013 24/7: late capitalism and the ends of sleep. London, New York, Verso.


CRS & Section Research Manager
2016 Lethal Autonomous Weapon Systems : Issues for Congress.





Danaher, J.
2016 "Will Life Be Worth Living in a World Without Work? Technological Unemployment and the Meaning of Life", Science and Engineering Ethics.



Dando, M.
2015 "Neuroscience Advances and Future Warfare", Handbook of Neuroethics (pp. 1785-1800). Dordrecht: Springer Netherlands.



Ding, J.
2018 Deciphering China’s AI Dream.




Dirican, C.
2015 "The Impacts of Robotics, Artificial Intelligence On Business and Economics", Procedia - Social and Behavioral Sciences: 195: 564-573.




The Economist 
2018 "What to make of Mark Zuckerberg’s testimony". Acceso: 15 de abril de 2018.






2016 La educación en España: el Horizonte 2020. Madrid, Fundación de Ayuda contra la Drogadicción (FAD).





Ford, M.
2009 The lights in the tunnel: automation, accelerating technology and the economy of the future. US, Acculant Publishing.



2015 Rise of the robots: technology and the threat of a jobless future. New York, Basic Books-Perseus Books Group.




Frankish, K. (y W. M. Ramsey)
2014 The Cambridge Handbook of Artificial Intelligence. Cambridge University Press.



Frey, C. B. (y M. A. Osborne)
2017 "The future of employment: How susceptible are jobs to computerisation?", Technological Forecasting and Social Change: 114: 254-280.




Gamba, J. (y otros)
2019 An Analysis of Pre-installed Android Software.




Goldin, C. D. (y L. F. Katz)
2010 The Race between Education and Technology: The Evolution of U.S. Educational Wage Differentials. Cambridge, MA, Belknap Press.


González-Anleo, J.
2002 "Panorama de la educación en la España de los cambios", Reis: 100(02): 185-229.




Halinen, I. (y otros)
2015 "Making Sense of Complexity of the World Today: why Finland is Introducing Multiliteracy in Teaching and Learning" en V. Bozsik (Ed.), Improving literacy skills across learning: CIDREE Yearbook 2015 (pp. 136-153). Budapest, HIERD.





Heyns, C.
2013 Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns.





Hoogei, E. (T. Burnsii y H. Wilkoszewskiii)
2012 Looking Beyond the Numbers: Stakeholders and Multiple School Accountability (OECD Education Working Papers, No. 85). Paris.



Human Rights Watch
2012 Losing Humanity: The Case Against Killer Robots.





International Labour Organization
2019 World Employment and Social Outlook: Trends 2019. Geneva: International Labour Office.





Johnson, A. M. (y S. Axinn)
2013 "The Morality of Autonomous Robots", Journal of Military Ethics: 12(2): 129-141.




Kaplan, J.
2015 Humans need not apply: a guide to wealth and work in the age of artificial intelligence. New Haven, Yale University Press.


Korea, S. (y F. Ten)
2017 "The world ’ s most valuable resource: Data and the new rules", The Economist,: 9, 19-22.





Kshetri, N.
2017 "The evolution of the internet of things industry and market in China: An interplay of institutions, demands and supply", Telecommunications Policy: 41(1): 49-67.




Larson, C.
2018 "China’s massive investment in artificial intelligence has an insidious downside", Science.



Lin, P. (K. Abney y G. Bekey)
2011 "Robot ethics: Mapping the issues for a mechanized world", Artificial Intelligence: 175(5–6): 942-949.




Maryska, M. (y otros)
2019 "Economic Efficiency of the Internet of Things Solution in the Energy Industry: A Very High Voltage Frosting Case Study", Energies: 12(4): 585.



Mendelson, D. (y D. Mendelson)
2017 "Legal protections for personal health information in the age of Big Data – a proposal for regulatory framework", Ethics, Medicine and Public Health: 3(1): 37-55.




Ministerio de Educación
2018 Panorama de la educación 2018: indicadores de la OCDE. Madrid, Ministerio de Educación y Formación Profesional.



ac8b-00efbc95b8a2/Panorama de la

Educacion 2018_final.pdf


Moreno Muñoz, M.
2009 "Propiedad intelectual y conflicto de valores en la sociedad del conocimiento", Gazeta de Antropología: 25(1).


2012 "El cierre de Megaupload y los cowboys de la SOPA: Conflicto de valores en la era de Internet".


2014 "El caso Snowden". La Maleta de Portbou – Revista de Humanidades y Economía: (4): 86-91.



2016 "Opciones de mejora cognitiva no convencional como respuesta al desempleo estructural en el contexto tecnológico de la cuarta revolución industrial", Gazeta de Antropología: 32(2): 1-19.


2017a "Privacidad y procesado automático de datos personales mediante aplicaciones y bots", Dilemata: revista internacional de éticas aplicadas / international journal of applied ethics: 9(24): 1-23.




2017b "The viability of «embedded Ethics» in robotic military systems without humans in the decision loop", en Zagreb Applied Ethics Conference (ZAEC).



2018a "Mediación tecnológica de la interacción social y riesgos de su instrumentalización: el caso de la plataforma Facebook", Gazeta de Antropología: 34(2/03): 1-18.



2018b "Virtualización del espacio público y concepto débil de privacidad. Lecciones del caso Facebook-Cambridge Analytica", Ensayos de Filosofia: 8/2(3).


2018c «Biases in Risk Assessment of Artificial Intelligence for Military Purposes». New Technologies and Human Enhancement. A Workshop with Nicholas Agar (Feb. 2018). Málaga, Spain.




Mori, C. (y E. Todaka)
2009 "Establishment of sustainable health science for future generations: from a hundred years ago to a hundred years in the future", Environmental Health and Preventive Medicine: 14(1): 1-6.




Morozov, E.
2017 "Más protección de datos no es suficiente para frenar el poder de Facebook o Google". Acceso: 7 de abril de 2018.




2018 "After the Facebook scandal it’s time to base the digital economy on public v private ownership of data", The Guardian.






Mozur, P.
2018 "Inside China’s Dystopian Dreams: A.I., Shame and Lots of Cameras", The New York Times.





Nachtwey, O.
2017 La sociedad del descenso : precariedad y desigualdad en la era posdemocrática. Barcelona, Paidós.




Nam, T.
2017 "A tool for liberty or oppression? A cross-national study of the Internet’s influence on democracy", Telematics and Informatics: 34(5): 538-549.




Noorman, M.
2014 "Responsibility Practices and Unmanned Military Technologies", Science and Engineering Ethics: 20(3): 809-826.




Normand, R.
2008 "School effectiveness or the horizon of the world as a laboratory", British Journal of Sociology of Education: 29(6): 665-676.




2018 Education at a Glance 2018. Paris, OECD.



Romero, P.
2018 "En Facebook no eres usuario , eres producto". Acceso: 7 de abril de 2018.





Royal Society, T. (y The British Academy)
2018 The impact of artificial intelligence on work (Sept. 2018). London, The British Academy, The Royal Society.





Scharre, P.
2018 Army of none : autonomous weapons and the future of war. NY, WW Norton & Co.


Schiller, Dan
2015 "Digital capitalism: stagnation and contention?". Acceso: 19 de marzo de 2019. 




Schiller, Daniel
1999 Digital capitalism: networking the global market system. Cambridge, Mass, MIT Press.


Sehrawat, V.
2017 "Autonomous weapon system: Law of armed conflict (LOAC) and other legal challenges", Computer Law & Security Review: 33(1): 38-56.



Sharkey, N.
2010 "Saying ‘No!’ to Lethal Autonomous Targeting", Journal of Military Ethics: 9(4): 369-383.



2011 "The Automation and Proliferation of Military Drones and the Protection of Civilians". Law, Innovation and Technology: 3(2): 229-240.



2012 "The evitability of autonomous robot warfare". International Review of the Red Cross: 94(886): 787-799.




Smith, J.
2008 "Quality assurance and gender discrimination in English universities: an investigation", British Journal of Sociology of Education: 29(6): 623-638.




Strawser, B. J.
2010 "Moral Predators: The Duty to Employ Uninhabited Aerial Vehicles", Journal of Military Ethics: 9(4): 342-368.




Sullins, J. P.
2014a "Deception and Virtue in Robotic and Cyber Warfare" (pp. 187-201).


2014b "Deception and Virtue in Robotic and Cyber Warfare", en M. Floridi, L and Taddeo (Ed.), Ethics of Information Warfare (Vol. 14, pp. 187-201).



Tonkens, R.
2012 "The Case Against Robotic Warfare: A Response to Arkin", Journal of Military Ethics: 11(2): 149-168.




Vega, G.
2017 "Automatización: Estos economistas calculan cuántos empleos quita cada robot". Acceso: 31 de marzo de 2018.





World Bank
2019 World Development Report 2019: The Changing Nature of Work. The World Bank.



World Economic Forum
2016a The Future of Jobs. Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution. Switzerland.



2016b The Future of Jobs. Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution (Executive Summary). Cologny/Geneva, Switzerland.



Obstáculos para el desarrollo ético de una estrategia europea de I+D en inteligencia artificial

1. Introducción


La falta de coordinación entre los países de la Unión Europea para articular estrategias eficaces de I+D en inteligencia artificial (IA) puede agrandar la brecha ante los actores que lideran este dominio de desarrollos tecnológicos —Estados Unidos y China— y relegar a un incómodo papel secundario a países con capacidades, recursos y talento suficiente para contribuir a la innovación en el sector.


Al riesgo de importar tecnologías y desarrollos diseñados para contextos sociolaborales de dudosa compatibilidad con el marco de derechos y libertades consensuado en la Unión Europea, se suma el coste creciente de servicios y aplicaciones con gran valor añadido para los titulares de derechos de propiedad industrial (nuevos microprocesadores con una arquitectura optimizada para aprendizaje profundo, p. ej.), cuyos estándares e intereses terminan prevaleciendo en el mercado global por ser los primeros en llegar y operar con ventaja o en régimen de cuasimonopolio (1).


El desarrollo ético de la investigación en IA no puede desvincularse de un contexto sociotécnico que permite a los ciudadanos de la Unión Europea el acceso generalizado a multitud de servicios, aplicaciones y plataformas de interacción virtual, bajo la cobertura de un sistema de derechos y garantías para los usuarios considerado de los más exigentes entre las democracias liberales (2). La importancia otorgada a la privacidad como derecho, a la no discriminación y a las garantías para el ejercicio de la libertad de expresión no deberían resultar menoscabadas con la importación de servicios y sistemas de seguimiento generados en contextos socio-técnicos ajenos por completo al sistema de contrapesos entre los conceptos de libertad, autonomía y seguridad que inspiran las bases constitucionales de los países vinculados por el Acuerdo Schengen, más Noruega, Suiza, Irlanda y el Reino Unido (3).


Dado el notable retraso con el que los Estados miembros y la Comisión Europea han acordado colaborar para impulsar la inteligencia artificial "fabricada en Europa", resulta poco verosímil que a corto plazo Europa se convierta en la región que dirija a nivel mundial la creación e implantación de una inteligencia artificial puntera, ética y segura, como señalaba la nota de prensa difundida por la Comisión el 7 de diciembre de 2018 (4). Mi contribución se centra en analizar algunos obstáculos y condicionantes de partida, cuya comprensión aportaría cierta dosis de realismo en relación con los reajustes requeridos para impulsar una iniciativa ambiciosa de I+D en IA.



2. Obstáculos en la línea de salida


2.1. Rigidez en la oferta de titulaciones universitarias


Entre las dificultades que los gestores autonómicos y estatales deben superar hay que señalar la rigidez de la oferta de titulaciones en el sistema de educación superior y la burocracia disuasoria de los procedimientos de modificación y adaptación en vigor. Esta circunstancia supone una rémora considerable para cualquier intento justificado de incluir o quitar asignaturas, reajustar el listado de competencias asociadas con una titulación y actualizar sus contenidos. Los ciclos requeridos para la formación y reciclaje profesional del capital humano no se dan hoy en un tiempo acorde a la evolución de los debates públicos, al progreso en los ámbitos disciplinares más dinámicos y a la aparición de servicios y aplicaciones que demandan una rápida actualización de los instrumentos de trabajo y de la infraestructura de aprendizaje y capacitación profesional (Moreno Muñoz 2016).



2.2. Insuficiencia del marco de competencias multialfabetizadoras en la etapa preuniversitaria


Si bien gran parte del debate sobre las carencias de los sistemas educativos en sus etapas obligatorias más la equivalente al bachillerato español responde a condicionantes puramente ideológicos constatables en la motivación de cada intento de reforma, no pueden ser ignorados los informes externos que aportan indicadores desfavorables relativos a la falta de alfabetización múltiple (5), el abandono temprano, la masificación de los centros, la infrafinanciación y la dificultad para implementar metodologías de trabajo innovadoras con eficacia para compensar las desigualdades socioeconómicas de partida (OECD 2018).


Estos aspectos distancian a países como España, Portugal y Grecia de otros en el territorio UE con mejores indicadores globales de rendimiento educativo (Alemania, Suecia o Finlandia, entre otros), inequívocamente correlacionados con una mayor inversión por estudiante, calidad en la infraestructura y estabilidad en las dotaciones presupuestarias (6). Si este sesgo multicausal no se corrige, existe un riesgo claro de reproducir en el ámbito europeo desequilibrios y dependencias similares a los observables en el mercado mundial de otros muchos servicios derivados del liderazgo en I+D en campos como las telecomunicaciones, el transporte y el comercio electrónico.



2.3. Asimetría entre sistemas formativos y regiones industriales del territorio UE


La distribución de competencias administrativas para la gestión de los sistemas educativos está provocando una fragmentación de los criterios, prioridades y objetivos que inspiran las políticas educativas en todos los niveles (FAD 2016: 7-9, 26-28; González-Anleo 2002: 189-190; Barrère y Delvaux 2017). Su resultado es la inconsistencia en aspectos decisivos como la colaboración público-privada, además de importantes asimetrías intra/supraestatales en aspectos básicos de la planificación educativa como su vinculación con las PYMES, con los sectores de actividad industrial, con la oferta de ocio y cultura y con la red de servicios sociales, entre otros (7).


Este aspecto resulta decisivo como condicionante de la percepción pública negativa acerca del impacto social de la I+D en inteligencia artificial, directamente conectada en informes y estudios recientes con un desplazamiento de trabajadores humanos de media o baja cualificación en sectores hasta ahora considerados nichos de empleo masivo (Vega 2017; World Bank 2018; Frey y Osborne 2017). Las expectativas negativas se han visto reforzadas por la solidez en el tiempo de los indicadores de desempleo estructural en países cultural e industrialmente desarrollados y por el retroceso constatado en la calidad del empleo tras la gran recesión (Nachtwey 2017).



2.4. Diferencias en el tejido empresarial y en la red de actores interesados en la educación


La distribución vertical de competencias administrativas se ha producido en paralelo al aumento de la complejidad de los sistemas educativos. En general, esta tendencia se ha traducido en un incremento de la red de actores concernidos por la gestión de los centros escolares y la formación profesional, con un mayor grado de libertad para la toma de decisiones por parte de las autoridades locales y los consejos escolares en respuesta a las demandas de cualificación y empleo del entorno (Hoogei, Burnsii, Wilkoszewskiii 2012).


Sin embargo, la dinámica descentralizadora no ha mermado las exigencias de responsabilidad a los gobiernos centrales, que aparecen ante el público como las entidades a las que compete en última instancia garantizar una educación de alta calidad y la mejora colectiva de las oportunidades de acceso e mejores empleos. La complejidad de esta red de actores dificulta extraordinariamente la respuesta ágil y eficaz a situaciones de crisis y desempleo prolongado, puesto que puede propiciar diagnósticos sesgados sobre las reformas necesarias —según el coste asociado en cada nivel de responsabilidad—, falta de confianza y desacuerdos insuperables en cuanto a prioridades, capacidades, estrategias de adaptación y recursos necesarios (Cerna 2014).



2.5. Bajo porcentaje de graduados en carreras STEM en la Unión Europea


Tanto en España como en el conjunto de países de la UE22, solo 4 de cada 10 titulados por primera vez en Educación Terciaria —universitaria— se gradúan en estudios STEM (Ministerio de Educación 2018: 26; Fig. 1: Porcentaje de graduados en Educación Terciaria por campo de estudio (2016).


Fig. 1: Porcentaje de graduados en Educación Terciaria por campo de estudio (2016).
Fuente: Panorama de la educación 2018. Indicadores de la OCDE.


Se trata de una tasa muy baja, comparada con la de estudiantes que se gradúan en Ciencias empresariales, administración y Derecho (18,6% en España; 23,8% en UE22) o en Educación (16,5% en España; 9,4% en UE22). En el caso de España, los porcentajes de graduados por primera vez en Educación Terciaria se concentran en el nivel de ciclo corto (34,2%) y grado (48,5%), siendo mucho más reducida la proporción de quienes finalizan el nivel de máster (17,3%) (8).


Importa este aspecto, ya que el nivel de especialización requerido para iniciarse en la actividad investigadora no se alcanza hasta finalizar los estudios de máster. Solo en este tipo de programas, aparte del doctorado, puede esperarse que los estudiantes adquieran conocimientos académicos y/o profesionales avanzados, con un componente sustancial de investigación. Este perfil condiciona también el porcentaje de estudiantes que acceden a programas de doctorado. La participación en programas de doctorado es más alta en campos STEM que en salud y servicios sociales o en humanidades (OECD 2018: 199). Pero, dada la baja proporción de estudiantes de doctorado y máster sobre el total de los matriculados en programas de Educación Terciaria y el coste notablemente mayor de las tasas asociadas, constituye un reto formidable en todo el territorio UE incentivar la composición interdisciplinar de programas de posgrado avanzados como los requeridos para una estrategia ambiciosa de I+D+i en IA.



3. Protección de los trabajadores ante transformaciones disruptivas


3.1. Múltiples estudios anticipan el final de la época de empleos masivos


Desde 1995, cuando Jeremy Rifkin publicó su obra The end of work (9), han aparecido estudios rigurosos de economistas, sociólogos y académicos que coinciden en admitir el fin de una época caracterizada por el acceso de la clase media trabajadora a nichos de empleo masivo (Ford 2009; Carr 2014; Ford 2015; Kaplan 2015; Brynjolfsson y McAfee 2014; Dirican 2015; Frey y Osborne 2017).


Las transformaciones derivadas de la convergencia de desarrollos tecnológicos en campos diversos (digitalización, telecomunicaciones, computación en la nube, electrónica, robótica y automatización avanzada, impresión aditiva, entre otros) son percibidas de modo ambivalente o como una amenaza directa para colectivos profesionales con una cualificación media, en ocupaciones consideradas básicas para la estabilidad y la vertebración del sistema social. Ciertas tendencias en el mercado de trabajo percibidas hoy como disruptivas ya estaban siendo objeto de estudio en las dos últimas décadas del siglo XX, inducidas por los desarrollos científico-tecnológicos que aceleraron los procesos de automatización de los sistemas mecánicos y su integración con otros avances propios de la Era de la información (computadoras en red, robots y sistemas con capacidad de computación en paralelo, algoritmos de inteligencia artificial aplicados a tareas de gestión o cálculo, etc.). Su finalidad expresa era sustituir a gran parte de los trabajadores con una cualificación media-alta dedicados a tareas poco creativas. Y sus efectos en el empleo no se han hecho notar hasta la consolidación del ecosistema de innovaciones necesarias en dominios de aplicaciones afines (Mori y Todaka 2009).


Las estimaciones de Rifkin a mediados de los noventa sobre el desempleo derivado del uso de máquinas inteligentes (cercano al 75% de la masa laboral en los países industrializados, lo que supondría poner en riesgo la viabilidad de 90 millones de puestos de trabajo, sobre un total estimado de 124 millones) no resultan hoy descabelladas (10). Un ejercicio de prospectiva que combine el impacto en el empleo de la automatización inteligente, más los desarrollos en algunos sectores de la biotecnología agropecuaria, podría extrapolarse a más de la mitad de la población humana, así como a gran parte de la dedicada al sector servicios (11).


En febrero de 2019, la Organización Internacional del Trabajo (OIT) constataba ligeros avances en la reducción del desempleo a nivel mundial, aunque en términos incompatibles con una mejora de la calidad del trabajo: la mayoría de los 3.300 millones de personas empleadas en el mundo no gozaba de un nivel suficiente de seguridad económica, bienestar material e igualdad de oportunidades. Los indicadores negativos de informalidad en el empleo habían empeorado por el impacto de los nuevos modelos empresariales, en particular los propiciados por nuevas tecnologías, en una tendencia bien consolidada que podría socavar logros básicos en la regulación del mercado laboral como los relativos a la seguridad y carácter formal del empleo, la protección social y las normas de seguridad y salud en el trabajo. Pese a tener un empleo, cerca de 700 millones de personas viven en situación de pobreza extrema o moderada, sin condiciones de vida dignas garantizadas, sobre todo si son jóvenes (International Labour Organization 2019: 12-23).



3.2. Cambios acelerados en el mercado de trabajo y desajustes en los sistemas educativos


La vertebración del orden social ha ido ligada en buena parte a las políticas de alfabetización universal y a la capacidad de los sistemas educativos para proporcionar, durante la segunda mitad del siglo XX, la cualificación técnico-profesional requerida para desempeñar los puestos de trabajo que demandaban sectores industriales afectados en grado diverso por los desarrollos científico-tecnológicos de la época.


En 1915, un trabajador con los estudios secundarios terminados era considerado altamente cualificado. A comienzos del siglo XXI, hasta los estudiosos más optimistas cuestionan abiertamente la sincronía entre demandas del mercado laboral y la capacitación profesional obtenida en la etapa preuniversitaria en los sistemas de los países más desarrollados, si se tiene en cuenta el alcance y persistencia del desempleo estructural (Autor 2015: 22-27) y la posibilidad de reemplazo por trabajadores que no terminaron la etapa secundaria (Goldin y Katz 2010: 287-293). Este fenómeno suele interpretarse como un indicador de que el ritmo acelerado de innovación tecnológica parece haber sobrepasado las capacidades de generaciones sucesivas de trabajadores para adquirir el tipo de formación que les permitiría involucrarse con éxito en programas de reciclaje profesional (Danaher 2016: 3-6; Goldin y Katz 2010: 247-266).


Las debilidades y disfunciones de los sistemas educativos en la era de la digitalización consumen gran parte de los recursos que deberían destinarse a incrementar su eficacia como instancia inclusiva y generadora de oportunidades en un escenario económico globalizado (Au 2008; Smith 2008). El resultado es una tendencia creciente a precarizar aún más el empleo disponible y la pérdida de valor tanto de la formación profesional como de los títulos universitarios (Normand 2008; Bertocchi y Spagat 2004). Pese a todo, el paso exitoso por programas de educación terciaria es el factor que más contribuye a estimular el aprendizaje permanente y la flexibilidad para adaptarse a entornos profesionales estrechamente ligados a la I+D avanzada (World Bank 2019: 79-81).



3.3. Inconsistencia de las estrategias de adaptación sugeridas por actores sociales diversos


El desempleo estructural como consecuencia de cambios drásticos en el mercado de trabajo desencadena respuestas a menudo incompatibles entre sí, según provengan de las instituciones gubernamentales, de las organizaciones sindicales o de la patronal de empresarios. Son demasiadas las variables involucradas en las transformaciones inducidas por los desarrollos tecnológicos que impulsan la cuarta revolución industrial (Dirican 2015; World Economic Forum 2016) para esperar una respuesta satisfactoria por parte de la teoría tradicional del capitalismo industrial y de las instituciones públicas o privadas que contribuyeron a configurar el orden social asociado con las décadas de mayor prosperidad en el siglo XX.


La necesidad de establecer nuevas reglas de juego acordes al nuevo escenario sociotécnico (un nuevo contrato social) forma parte de algunas propuestas lanzadas a mediados de los noventa. Entre otros aspectos, contemplaban el reparto inevitable del trabajo asalariado, la reducción de la jornada laboral, la potenciación del voluntariado, la universalización de una renta básica y la orientación del sistema fiscal para promover la economía social (12).


Asumiendo la necesidad de un New Deal global, interesan los matices al respecto que presentó el Banco Mundial a comienzos de 2019: conviene avanzar en la universalización de la protección social y en la prioridad a los colectivos con menos recursos, pero atendiendo a las dificultades prácticas y de escala que implican los niveles incrementales de cobertura. En consecuencia, la asistencia social debería complementarse con un seguro que no dependa totalmente del empleo asalariado formal. El consenso político tendría que impulsar una cobertura universal básica, subsidiando las primas para los pobres y complementando la asistencia social. Los empleos "formales" tendrían una base de contribuciones obligatorias basadas en los ingresos, con la posibilidad de un seguro adicional a través de planes de ahorro voluntario. Será necesario desvincular ahorros y redistribución, lo que dejaría margen para reducir los costes de la mano de obra, y desincentivar así la sustitución de trabajadores por robots (World Bank 2019: 106-107).


Cuando una sola iniciativa de I+D en inteligencia artificial como la propuesta por la Comisión Europea lleva aparejada una inversión cercana a los 30.000 millones de euros para el período 2019-2027, destinada preferentemente al desarrollo de aplicaciones y servicios en sectores como la asistencia sanitaria, el transporte y la movilidad, la seguridad y la energía, cabe esperar el recelo o la protesta entre actores concernidos por la estabilidad y la mejora del empleo en sectores menos favorecidos (p. ej., estudiantes y profesorado universitario no vinculado a facultades de informática o de derecho, tan afectados por el impacto de los desarrollos tecnológicos como los colectivos que la Comisión parece tener en perspectiva a efectos de becas y apoyo para el aprendizaje permanente) (13).


El conflicto reciente entre taxistas y trabajadores autónomos con licencias VTC (Vehículos de Turismo con Conductor, vinculados a empresas como Uber o Cabify, por mencionar solo algunas entre las muchas que han explotado con éxito las ventajas de la digitalización a través de aplicaciones móviles que agilizan el servicio) permite intuir el grado de coordinación esperable entre las diversas instancias locales, regionales y estatales con alguna competencia en la regulación de este tipo de transporte, si en pocos meses los conductores de ambos colectivos hoy enfrentados comenzaran a ser reemplazados por coches autónomos (14).


El encuadre distópico de la I+D en inteligencia artificial avanzada parece de entrada más convincente ante la opinión pública (Lin, Abney y Bekey 2011; Bostrom, Dafoe y Flynn 2016; Bilton 2014; Bostrom y Yudkowsky 2013), familiarizada en parte con algunas aplicaciones y servicios a través de dispositivos móviles que de hecho están provocando transformaciones significativas en nichos del sector público y privado que emplean a millones de trabajadores (administración y comercio electrónico, fiscalidad, aseguradoras, banca), en sinergia con cambios a escala global en logística y distribución al por mayor, servicio postal, transporte, seguridad, operaciones militares, etc. Esta dinámica puede generar incertidumbre y ansiedad entre trabajadores con niveles de cualificación muy diversos, incluyendo a titulados superiores, profesiones liberales y a personal con experiencia en puestos de dirección (World Economic Forum 2016: 5).



4. Razones para promover el desarrollo ético de la inteligencia artificial


4.1. Capitalismo digital y malas prácticas de los gigantes de Internet


Los actores que hoy juegan con ventaja en el desarrollo de la inteligencia artificial tienen en común su capacidad para acumular enormes cantidades de datos extraídos del comportamiento diario de millones de usuarios, procesarlos con rapidez mediante algoritmos por lo general opacos y ejercer el control de infraestructuras ineludibles en la práctica para la prestación de servicios globales (Korea y Ten 2017; Kshetri 2017), lo que les ha permitido establecer condiciones a la medida de sus necesidades, además de disparar su rentabilidad en bolsa (15).


Pocos países disponen de la capacidad tecnológica y del talento profesional necesario para desarrollar y explotar las herramientas de Big Data e Internet de las Cosas (IoT) con el nivel de calidad y el alcance necesario para dominar sectores estratégicos del mercado tecnológico, industrial y financiero mundial (Moreno Muñoz 2017, 2009; Maryska y otros 2019). Esa capacidad está hoy en manos de unos pocos actores globales, los denominados gigantes de Internet: grandes compañías estadounidenses (Google/Alphabet, Facebook, Microsoft, Amazon, Netflix, Apple, IBM, Salesforce.com, eBay + PayPal, Airbnb, Expedia) y algunas chinas (Alibaba-Tmall, Baidu, Sina y Tencent, entre otras) (16).


En conjunto, ejemplifican una dinámica de capitalismo digital mucho más ambiciosa que la mera monetización de nuestros datos de salud y de nuestros patrones de consumo, ocio o transporte (Borowiak 2011; Crary 2013: 15, 89, 99-100). Persiguen el control total de plataformas y nodos de servicios convertidos en infraestructuras de alcance mundial, cuya base financiera es tan esencial como su dimensión política (Morozov 2017 y 2018; Schiller 2015). Y funcionan expandiendo un esquema bien conocido de privatización y mercantilización de servicios básicos en la economía digital —ofertados en régimen de cuasimonopolio y apoyados por grupos de presión bien financiados— a sectores como la educación, la investigación, la sanidad, la seguridad, la energía y la asistencia social (17). Esto ocurre a un ritmo tan acelerado que provoca múltiples desajustes en los mecanismos de consenso y en los marcos reguladores a escala regional o estatal, con implicaciones de alcance geopolítico (Schiller 1999; Crary 2013).


El comportamiento de Facebook –con un gasto de 11,5 millones de dólares en cabildeo durante 2017– ilustra a la perfección un modelo de negocio sustentado en la cesión de datos de millones de sus usuarios a terceros, abusando de las zonas grises del marco regulador o directamente al margen de él (18). Las dudas al respecto se disiparon tras las declaraciones de sus máximos responsables de estrategia corporativa en diversas comisiones del Congreso estadounidense y del Parlamento europeo, una vez conocido el escándalo de Cambridge Analytica (19).


La estrategia corporativa dio prioridad a incrementar los márgenes de beneficio mediante acuerdos con empresas privadas (Crimson Hexagon, CubeYou, AggregateIQ) que excedían las limitaciones para el empleo de datos personales o de amigos y contactos indicadas en la política de privacidad, y anulaban las preferencias activadas por los usuarios (Moreno Muñoz 2018a). Esto ocurrió a pesar del requerimiento del regulador de las telecomunicaciones en Estados Unidos, cuyo personal detectó serias irregularidades a lo largo de varios años y exigió cambios drásticos en las políticas y herramientas que Facebook debía poner a disposición de los usuarios para garantizar la seguridad y la privacidad conforme al marco regulador estadounidense (20).


Un estudio reciente (Gamba y otros 2019) y a gran escala (abarca más de 82.000 apps preinstaladas en más de 1.700 dispositivos fabricados por 214 marcas) sobre dispositivos Android concreta los riesgos asociados a la falta de transparencia en un modelo de código abierto como el promovido por Google con Android OS, con una posición de liderazgo indiscutible en países emergentes y desarrollados. Las aplicaciones preinstaladas tienen la finalidad de recopilar datos privados y facilitar otros comportamientos potencialmente dañinos o no deseados en torno a la publicidad y otros servicios, incluyendo el acceso retrasado a datos y servicios sensibles sin el consentimiento o conocimiento del usuario (21).  Además de las implicaciones en materia de seguridad, sugieren un esquema fallido de transparencia y rendición de cuentas en el ecosistema Android, incompatible con el valor reconocido a la privacidad en el Reglamento General de Protección de Datos (RGPD) europeo (22).


A pesar de la experiencia y conocimiento acumulado por este tipo de empresas para liderar el desarrollo de aplicaciones y servicios novedosos en la economía digital, una estrategia ambiciosa de I+D en inteligencia artificial impulsada por la Unión Europea no puede sustentarse en los mismos actores cuyas malas prácticas han sido conocidas, denunciadas y sancionada (23) por su impacto negativo en la dinámica social, pese al secretismo e impunidad con los que han venido operando en la última década (Romero 2018; Moreno Muñoz 2018; Economist 2018).



4.2. Deterioro de la privacidad y erosión de los derechos civiles por mor de la seguridad


El riesgo de incidentes y brechas de seguridad es alto entre las empresas que fidelizan a millones de usuarios a través de la prestación de sus servicios en países con sistemas reguladores, culturas de privacidad y estándares de calidad democrática heterogéneos (Moreno Muñoz 2017 y 2018). El potencial de las herramientas desarrolladas para monitorizar la actividad de usuarios y empresas en contextos sociales respetuosos con las libertades civiles políticas (de expresión —discurso y prensa—, de religión, asamblea y asociación) puede fácilmente ser instrumentalizado en sentidos incompatibles con estas libertades fundamentales, en países con mercados muy atractivos bajo una perspectiva exclusivamente empresarial (Moreno Muñoz 2014).


Los desarrollos en inteligencia artificial se prestan a múltiples formas de instrumentalización por parte de actores privados o estatales, sea para programas de hipervigilancia y manipulación social, para rastrear la actividad de personas e instituciones críticas con el sistema político dominante, o para apropiarse de tecnología y conocimientos de interés industrial o militar (Anonimous... 2015; Albayati e Issac 2015; Sullins 2014).


Países como China y Estados Unidos gozan de una posición aventajada en la I+D focalizada en aplicaciones civiles y militares de la IA. Pero se tiene constancia de usos inquietantes de sistemas de reconocimiento facial y monitorización masivos, como parte de una dinámica de identificación de sospechosos que incluye vulneraciones de libertades civiles legales —detenciones y arresto arbitrario, parcialidad en las actuaciones judiciales y trato cruel e inhumano— (24).


Los regímenes autoritarios pueden resultar extraordinariamente eficaces en el desarrollo de tecnología avanzada (red de sensores y cámaras conectados a sistemas con bases de datos y algoritmos de reconocimiento diseñados para engranar decenas de capas de información, como puede verse en Mendelson y Mendelson 2017: 42-45 y nota 9) para rastrear individuos en búsqueda y captura, avergonzar a los autores de comportamiento incívico y exponer a escarnio público a deudores, p. ej. Se trata de iniciativas a menudo reforzadas por procedimientos de rastreo en el uso de Internet e interceptación de las comunicaciones, seguimiento de estancias en hoteles y de viajes por cualquier medio de transporte (25).


La estrategia de I+D en IA promovida en centros de investigación de la Unión Europea tiene que ser extraordinariamente respetuosa con los principios democráticos y con los valores cívicos en todos sus usos y aplicaciones potenciales, si quiere gozar del favor de un público con amplia cultura democrática. Este objetivo supone un serio desafío, dado el contexto altamente competitivo a escala global: Alibaba —la gran plataforma China de comercio electrónico—planea invertir hasta 2022 alrededor de 15.000 millones de dólares en la construcción de siete laboratorios dentro y fuera de China, dedicados a investigar en informática cuántica e IA (Larson 2018). La inversión que el presidente Chino anunció para la I+D en IA entre 2019 y 2030 —alrededor de 150.000 millones de dólares estadounidenses (26)— quintuplica la prevista en Europa y puede beneficiarse de la uniformidad y verticalidad en la aplicación coactiva de criterios para la selección de participantes, obtención de datos, puesta a prueba y validación de tecnologías éticamente inaceptables bajo estándares europeos (Mozur 2018; Larson 2018).



4.3. El riesgo de una nueva escalada armamentística fuera de control


El desarrollo de la inteligencia artificial es un campo donde convergen múltiples disciplinas, en las que pueden producirse avances aplicables bajo criterios e intereses muy diversos, en contexto civil o militar. Dejando aparte escenarios de dudosa clasificación —operaciones de rescate y asistencia humanitaria, p. ej.—, el desarrollo de la robótica y la inteligencia artificial ha tenido fases exploratorias más cercanas a la investigación básica, pero impulsadas por agencias y centros de investigación con una papel destacado en el desarrollo de tecnología militar (Frankish y Ramsey 2014, ch. 13).


Remontándonos a su origen en la I+D civil, conviene recordar que el diseño de los primeros sistemas robóticos de inspiración biológica incorporaba sensores, elementos de programación y actuadores para operaciones tales como identificar objetos, monitorizar los cambios, construir mapas, explorar el entorno, evitar objetos, etc. (Brooks 1986 y 1991). Pese al secretismo asociado con su desarrollo, se conocen múltiples sistemas de armamento con grados diversos de funcionamiento autónomo, incluyendo la posibilidad de operar sin supervisión humana en determinadas condiciones. Muchos ejércitos disponen de cohetes capaces de identificar, seleccionar, rastrear y atacar a sus objetivos por sí mismos, incluso eludiendo sistemas de defensa sofisticados (Moreno Muñoz 2017b y 2018c; Sehrawat 2017: 40-42). Algunos submarinos no tripulados tienen capacidad para hacer barridos autónomos de minas. Ciertos tipos de drones pueden trabajar en red, formando enjambres para llevar a cabo ciertas tareas de reconocimiento o defensa en modo autónomo (27).


Cabe imaginar aplicaciones obvias de la IA en el desarrollo de vehículos no tripulados y dotados de sistemas de armas con autonomía creciente en funciones críticas —selección, rastreo y ataque a objetivos, p. ej.—, o en la mejora de la tasa de aciertos asociada con la intervención humana (proporcionando al sistema robótico los datos biométricos del "objetivo", p. ej., y programándolo para activar la respuesta deseada sin necesidad de ulterior confirmación por operador humano). Pero es un hecho que muchos sistemas de armamento avanzados tienen funciones autónomas para responder con el margen de seguridad necesario ante amenazas diseñadas para actuar con la mayor precisión y velocidad técnicamente posibles (CRS & Section Research Manager 2016; Scharre 2018).


Exceptuando algunos sistemas de vigilancia automatizada desplegados en zonas fronterizas y bases militares, son relativamente pocos los sistemas de armas totalmente autónomos capaces de desencadenar una violencia letal contra los seres humanos. En términos de prospectiva ética y análisis geopolítico, sin embargo, no cabe ignorar que existen poderosos incentivos para acelerar los avances en inteligencia artificial y en diversas áreas de la robótica aplicables a la mejora de sistemas de armamento desplegables en cualquier contexto que aporte ventajas operativas (Ding 2018: 31-32). Entre esos incentivos figura la evitación de bajas humanas en los escenarios de mayor riesgo (Strawser 2010), el contrapeso al sesgo humano en la toma de decisiones lastradas por la incertidumbre (Arkin 2010) o la ampliación de capacidades sensoriales, funcionales o cognitivas de soldados (Dando 2015).


Vistas las atrocidades contra civiles cometidas por actores privados y estatales en la última década, no parece descartable como incentivo la elusión de responsabilidades por violación del Derecho internacional humanitario (DIH), aprovechando la ventaja táctica de medios tecnológicamente avanzados para perpetrar acciones contrarias al Derecho de los conflictos armados (LOAC) y vulnerar los criterios de distinción, proporcionalidad, necesidad militar y evitación de sufrimiento innecesario a prisioneros, no combatientes, etc. (28).


El grupo de países que se oponen a un nuevo tratado, declaración política o cualquier otra medida dirigida a evitar la proliferación de sistemas letales autónomos lo componen Australia, Israel, Rusia, Corea del Sur y Estados Unidos. Alemania, España, Francia Austria y Reino Unido conforman un grupo de 26 países partidarios de una regulación multilateral fuertemente restrictiva, inspirada en compromisos éticos comunes (Ding 2018: 34). El problema es que los primeros cuentan con capacidad tecnológica y científica para desarrollar programas avanzados orientados a "explorar las posibles ventajas o beneficios del desarrollo y uso de sistemas de armas autónomas letales" (29). En esta línea han de entenderse algunos pronunciamientos recientes del gobierno chino en materia de política industrial, con objetivos propios de una nueva carrera armamentística que plantea importantes desafíos en materia de seguridad para la Unión Europea (30).


Lo aquí expuesto basta para considerar mucho más razonable la oposición al despliegue de sistemas de armamento letales autónomos, en línea con numerosos autores e instituciones representativos de un consenso muy cualificado al respecto:  Johnson y Axinn 2013; Tonkens 2012; Sharkey 2010, 2011 y 2012; Sullins 2014b; Heyns 2013; Human Rights Watch 2012.



5. Conclusión


Las dificultades para articular una estrategia coherente e internacionalmente competitiva de I+D en IA entre los países de la Unión Europea surgen de la heterogeneidad en los indicadores de rendimiento y gobernanza de sus respectivos sistemas educativos; de la diversidad de esquemas de relación entre los sistemas de educación superior y el tejido empresarial en contextos de actividad industrial, económica y de servicios muy dispares; y de unos estándares de privacidad, rendición de cuentas, protección de las libertades civiles y garantías laborales considerados de los más exigentes en el Derecho internacional.


La probable salida del Reino Unido de la Unión Europea supone para la estrategia europea prescindir —en aspectos relevantes— del socio con mayor impacto en publicaciones y eventos de referencia internacional sobre la IA y áreas disciplinarmente afines, solo por detrás de Estados Unidos y China (Ding 2018: 26). A las dificultades para conseguir el liderazgo científico en un campo del conocimiento que ha pasado por varias décadas de contribuciones más orientadas a la investigación básica que a desarrollos de utilidad industrial, hasta la entrada de grandes actores con potencial tecnológico y capacidad económica para explorar las aplicaciones de la IA (machine learning, deep learning, neural networks, interacción hombre-máquina, visión por ordenador, conducción inteligente. etc.) en la prestación de servicios globales de la economía digital, se suman otras debilidades en el ecosistema de invenciones, desarrollos y aplicaciones en áreas clave de la robótica, el Big Data y la IoT que están permitiendo a países como EE. UU., Japón, Corea del Sur y China registrar un número significativo de patentes e imponer de facto sus estándares (31).


Los efectos de la disparidad de criterios en las políticas migratorias entre los diferentes países de la Unión Europea no facilitan la movilidad internacional de profesionales de alto nivel y expertos bien entrenados (10-15 años) en áreas punteras de la I+D. Esta situación tiene especial impacto en sectores estratégicos asociados a las aplicaciones de mayor valor añadido —salud, finanzas, logística, etc.—, donde solo los mayores actores privados están en condiciones de aportar incentivos salariales y de desarrollo profesional verdaderamente atractivos (Larson 2018), en comparación con los que pueden ofrecer las instituciones académicas mejor financiadas. Cualquier iniciativa ambiciosa de I+D en IA durante los próximos años irá lastrada por el sobrecoste asociado a esta fuerte demanda de talento altamente especializado, lo cual supone obstáculos adicionales para consensuar criterios y distribuir recursos en la financiación estatal de la I+D en el sector.


Los actores privados y estatales que hoy tienen una posición de ventaja en el desarrollo y aplicación de la IA avanzada han seguido en los últimos años una estrategia acertada de adquisición de empresas altamente especializadas en ingeniería de software, gestión de datos, integración de aplicaciones y desarrollo de innovaciones con alto valor añadido, potenciando y diversificando así cadenas de servicios en los que ya destacaban (sistemas de pago y comercio electrónico, logística y transporte, almacenamiento en la nube, seguridad, salud, educación en línea, etc.) (32). Esto subraya la importancia de consolidar un contexto de desarrollos tecnológicos y de servicios capaz de aportar significado —entiéndase: expectativas razonables de retorno de las inversiones— a las costosas estrategias de adquisición en un mercado globalizado. Dado el volumen de recursos que los estados de la Unión Europea dedican a servicios sociales, educación pública, cobertura sanitaria y protección del empleo, es improbable que a corto plazo y bajo esquemas convencionales se doten del margen de respuesta suficiente para competir con la estrategia que China está desarrollando en los últimos años para retener talento nacional y captar empresas bien posicionadas en determinados sectores de la I+D, bajo esquemas inequívocamente asimétricos de colaboración público-privada (Royal Society y British Academy 2018: 47).


El desarrollo ético de la I+D en IA plantea desafíos adicionales en el territorio UE por el alcance de los consensos políticos sobre privacidad, libertades civiles, transparencia en el acceso a los datos de interés público, libre competencia y garantías para el uso pacífico de los desarrollos científicos en sociedades profundamente interconectadas (33). Aparte de movilizar recursos y talento en la escala adecuada,  las instituciones de la Unión Europea tienen la responsabilidad de articular y fortalecer mecanismos de gobernanza multilateral e instancias reguladoras íntegras e independientes, capaces de monitorizar y sancionar las malas prácticas de quienes instrumentalizan el control de determinadas plataformas tecnológicas o servicios avanzados en la economía digital para eludir obligaciones fiscales, distorsionar la competencia, intoxicar el debate público y promover agendas hegemónicas incompatibles con el uso pacífico de la IA (Carrigan & Coglianese 2016; Noorman 2014).







1. Véase Larson 2018 y Ding 2018: 11-13. También: https://www.technologyreview.es/s/10080/la-ambicion-china-por-controlar-la-ia-es-mayor-de-lo-que-creiamos; https://www.technologyreview.es/s/10764/la-falta-de-coordinacion-deja-europa-la-cola-de-la-carrera-por-la-ia


2. Sobre los objetivos y valores que constituyen la base de la Unión Europea, según establecen el Tratado de Lisboa y la Carta de los Derechos Fundamentales de la UE, véase https://europa.eu/european-union/about-eu/eu-in-brief_es.


3. Véase (Nam 2017). También: https://es.wikipedia.org/wiki/Espacio_Schengen; https://www.schengenvisainfo.com/es/schengen-paises/


4. http://europa.eu/rapid/press-release_IP-18-6689_es.htm


5. El contenido de la noción de alfabetización múltiple (multiliteracy) ha sido precisado por Halinen y otros (2015): "un conjunto de prácticas que incluyen la obtención, combinación, modificación, producción, presentación y evaluación de la información en diferentes formatos, entornos y situaciones, junto con la capacidad para seleccionar las herramientas y metodologías adecuadas" (pp. 142-143). La alfabetización múltiple requiere el desarrollo de las habilidades intelectuales necesarias para el aprendizaje y el pensamiento crítico, incluyendo la consideración de los aspectos éticos y estéticos involucrados en los problemas, así como el manejo del lenguaje y de los recursos expresivos necesarios para la construcción de conocimientos en las diferentes disciplinas.


6. Mientras que el porcentaje de la población cuyo nivel de estudios no sobrepasa la etapa secundaria roza el 70% en Portugal y el 50% en España o Italia, en Alemania, Finlandia o Suecia se sitúa entre el 20-25%. Cfr. los datos de Eurostat (2002-2010) en: https://capitalsocialenespanol.wordpress.com/2012/03/07/que-tienen-en-comun-espana-grecia-italia-y-portugal-desde-la-perspectiva-del-capital-social-iii-el-nivel-educativo/. Sobre el abandono temprano, y a pesar del esfuerzo realizado en los últimos años para reducirlo, puede comprobarse cómo las cifras de España y Portugal casi triplican las de Suecia y Finlandia (ibíd.). Estos dos últimos países superan en 2-3 puntos el porcentaje del PIB invertido en educación (Finlandia: 6%; Suecia: 7%; Portugal: 5%; España: 4,5%; Grecia: 4%).


7. Como ejemplo, puede citarse el deterioro en las condiciones del programa de prácticas en centros educativos para los estudiantes del Máster del Profesorado de Educación Secundaria y Bachillerato desarrollado por la Universidad de Granada. De un esquema inicial que remuneraba de modo simbólico a los tutores de los centros involucrados en el Programa de Prácticas se ha pasado en los últimos años a otro de mera colaboración altruista, sin incentivo alguno para que los tutores con más experiencia en los centros colaboren en la formación de los futuros profesionales del sector. Esto ha convertido el principal aliciente que justificó la reforma del sistema de capacitación para impartir clases en centros de Secundaria/Bachillerato en un procedimiento meramente protocolario, para cubrir como mejor se pueda las horas en el período de prácticas, con muy pocos centros disponibles.


8. Ministerio de Educación 2018: 24; OECD 2018: 214.


9. Véase el cap. 12 ("Requiem for the Working Class"), en Rifkin 1995: 181-197.


10. Martin R. Ford cuestiona la creencia en el equilibrio global del mercado de trabajo, pese a los desajustes locales resultantes de la deslocalización de la actividad productiva que pueden suponer pérdidas importantes de oportunidades de empleo en países con salarios altos, mientras se generan nuevas oportunidades en regiones con mejores condiciones para atraer inversión. Su análisis consiste precisamente en un ejercicio de simulación, asumiendo una alta probabilidad de pérdida neta de empleos a menos que se financien decididamente las estrategias orientadas a crear oportunidades y nuevas fuentes de valor añadido. Cfr. Ford 2009, Chap. 1, "The Tunnel", págs. 7-24.


11. En Rifkin (ibid., nota 9), y  págs. 5, 109 y 143.


12. Véase Rifkin 1995: 221-293.


13. Véase: "Fomentar el talento, las capacidades y el aprendizaje permanente" (aptdo. 3), en http://europa.eu/rapid/press-release_IP-18-6689_es.htm.


14. Ante la magnitud del problema, el gobierno español prefirió delegar por completo las competencias sobre el asunto en las administraciones locales y autonómicas, cuyas resoluciones contradictorias han generado una situación de caos en el sector, con numerosos casos en los tribunales y múltiples incidentes violentos. Cfr. los enlaces siguientes:








15. https://edition.cnn.com/2012/11/28/business/china-internet-of-things








16. https://www.statista.com/statistics/277483/market-value-of-the-largest-internet-companies-worldwide/


17. https://elpais.com/economia/2019/03/15/actualidad/1552654152_463968.html


18. https://www.theguardian.com/uk-news/commentisfree/2019/mar/18/cambridge-analytica-chernobyl-privacy https://www.nytimes.com/2019/03/13/technology/facebook-data-deals-investigation.html https://motherboard.vice.com/en_us/article/mg9vvn/how-our-likes-helped-trump-win http://time.com/5551242/report-facebook-criminal-investigation-data-privacy


19. https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html
https://www.theguardian.com/news/series/cambridge-analytica-files https://www.bbc.com/news/topics/c81zyn0888lt/facebook-cambridge-analytica-data-scandal


20. Federal Trade Commission (November 29, 2011): "Facebook Settles FTC Charges That It Deceived Consumers By Failing To Keep Privacy Promises".



21. https://www.aepd.es/prensa/2019-03-18.html



22. https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32016R0679&from=ES


23. Google pagó 2.736 millones de dólares (2.428 millones de euros) en multas en 2017. En 2018, las sanciones se incrementaron un 85%, hasta los 5.071 millones de dólares (4.500 millones de euros), por incumplir la ley antimonopolio europea (véase: https://www.bbc.com/mundo/noticias-44872301). En marzo de 2019, la Comisión Europea le ha impuesto otra sanción (1.490 millones de euros) por abuso de posición dominante en relación con su servicio de publicidad en Internet AdSense, promocionado durante más de una década mediante cláusulas restrictivas que impedían a sus rivales colocar anuncios de búsquedas en sitios web de terceros (véase: https://apnews.com/701658e16440433f840e15869b101fa8).


24. En referencia a las prácticas de los servicios de inteligencia estadounidenses, pueden verse más detalles en Moreno Muñoz 2012, 2014, 2017 y 2018b. Sobre algunas prácticas de actores privados y estatales en China, puede verse Larson 2018; también: https://www.cnas.org/publications/reports/understanding-chinas-ai-strategy.


25. China ya cuenta con unos 200 millones de cámaras de vigilancia, cuatro veces más que Estados Unidos. En muchos complejos de viviendas no se permite la entrada sin pasar antes por escáneres de reconocimiento facial. Cfr. https://www.nytimes.com/2018/07/08/business/china-surveillance-technology.html
https://www.spectator.co.uk/2018/11/social-credit-is-just-one-part-of-chinas-new-state-control/ https://www.forbes.com/sites/arthurherman/2018/08/30/chinas-brave-new-world-of-ai/#3595c68328e9 https://www.cfr.org/blog/exporting-repression-chinas-artificial-intelligence-push-africa https://www.scmp.com/news/china/society/article/2157883/drones-facial-recognition-and-social-credit-system-10-ways-china


26. http://english.gov.cn/policies/latest_releases/2017/07/20/content_281475742458322.htm


27. https://www.bbc.com/news/technology-32334568
https://www.cnas.org/publications/podcast/autonomous-weapons-and-the-future-of-war-2 https://www.nytimes.com/2018/11/15/magazine/autonomous-robots-weapons.html


28. https://www.thebalancecareers.com/law-of-armed-conflict-loac-3332966


29. https://www.independent.co.uk/life-style/gadgets-and-tech/news/killer-robots-un-meeting-autonomous-weapons-systems-campaigners-dismayed-a8519511.html


30. https://elpais.com/internacional/2019/03/15/actualidad/1552647525_844818.html


31. https://www.technologyreview.com/s/612598/chinas-tech-giants-want-to-go-global-just-one-thing-might-stand-in-their-way/; https://www.cnbc.com/2017/09/01/goldman-says-china-has-talent-data-and-infrastructure-to-embrace-ai.html; http://english.gov.cn/policies/latest_releases/2017/07/20/content_281475742458322.htm.


32. https://www.economist.com/business/2017/12/07/google-leads-in-the-race-to-dominate-artificial-intelligence


33. The Future of Life Institute (2017): "Asilomar AI Principles".





Artículos de Ensayos de Filosofía citados:

Miguel Moreno Muñoz, "Virtualización del espacio público y concepto débil de privacidad. Lecciones del caso Facebook-Cambridge Analytica", Ensayos de Filosofia, núm. 8, 2018, semestre 2, artículo 3.




Moreno Muñoz, Miguel
"Obstáculos para el desarrollo ético de una estrategia europea de I+D en inteligencia artificial", Ensayos de Filosofía, nº 10, 2019, semestre 2, artículo 7