Esta obra reúne una selección de capítulos escritos por destacados profesores de la prestigiosa EAE Business School, quienes, con su amplio conocimiento y experiencia, nos ofrecen una visión integral de las oportunidades emergentes en este nuevo escenario. Cada capítulo aborda aspectos cruciales de nuestros tiempos, explorando las oportunidades desde una perspectiva multidisciplinar y presentando un análisis riguroso basado en la investigación y la experiencia práctica. Los temas tratados abarcan una amplia gama de áreas clave en el entorno empresarial actual, como el impacto de la inteligencia artificial, la evolución del trabajo a distancia y el teletrabajo, la regulación legal de los criptoactivos, la nueva visión estratégica de la responsabilidad social corporativa y la contribución de las empresas al desarrollo sostenible. Los autores, expertos en sus respectivos campos, nos guían a través de un análisis exhaustivo y nos brindan valiosas perspectivas sobre cómo adaptarnos y prosperar en esta nueva realidad.
David López Jiménez
EAE Business School
Víctor Manuel Castillo Girón
Universidad de Guadalajara
I. INTRODUCCIÓN
A la inteligencia se le imputa la capacidad de entender y comprender, que incorpora su mayor naturaleza aspirativa, en la que parece no haber límites. También alude a su nivel de expresión más tangible como la habilidad, la destreza y la experiencia que son su aplicación más visible o real. Asimismo, se apunta a su naturaleza espiritual lo que le permite conectar con las virtudes humanas, activarlas y darles un mayor sentido. Estamos frente a un fenómeno que ostenta la capacidad de interpretar datos externos, para aprender de los mismos y poder utilizar esos conocimientos para realizar tareas y metas en virtud de la adaptación flexible.
Es ciertamente complejo concretar el origen del fenómeno de la Inteligencia Artificial –IA–. Existen instrumentos que podrían considerarse manifestaciones rudimentarias del mismo, como, entre otros, la máquina universal –que parte de un componente físico– de Alan Turing (1936) o el computador de John Von Newman (1950). Puede, igualmente, mencionarse una conferencia celebrada en los Estados Unidos –Dartmouth College, 1956– que se posiciona en los albores de esta sugerente cuestión. En relación a la misma, cabe citar a científicos como John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon. A partir de la década de 1970, la IA se centró cada vez más en el desarrollo de algoritmos de aprendizaje automático, que permitían a las máquinas formarse a través de la experiencia. A medida que la potencia de procesamiento y la cantidad de datos disponibles aumentaron, la IA se volvió más sofisticada y comenzó a ser utilizada en una amplia gama de aplicaciones.
Aunque no existe una definición unánime de IA, la misma constituye un campo de la Ciencia y de la Ingeniería que se ocupa de la comprensión –desde el punto de vista informático– de lo que se denomina comportamiento inteligente. El Libro Blanco sobre la IA (un enfoque orientado a la excelencia y la confianza) la define a partir de sus tres elementos esenciales: conjunto de datos, conjunto de algoritmos y capacidad informática. Se trata de un sistema que, en definitiva, busca imitar las diversas capacidades del cerebro humano para presentar comportamientos inteligentes, sintetizando y automatizando actividades intelectuales. A este respecto, la Real Academia de la Lengua dispone que es la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana como el aprendizaje o el razonamiento lógico. La IA se considera como la Ciencia e ingenio de hacer máquinas inteligentes, sobre todo programas de cálculo inteligente.
La IA se está implementando cada vez más en todo el mundo, y se espera que continúe expandiéndose en una notable variedad de sectores. Habida cuenta de la relevancia de la IA, determinados países, como España (1) , han creado una Agencia de Supervisión de la Inteligencia Artificial. Esta última se enmarca en la Agenda España Digital 2026, en la Estrategia Nacional de Inteligencia Artificial y en el Plan de Recuperación, Transformación y Resiliencia.
Resulta ciertamente complejo poder efectuar predicciones en esta materia, dada la celeridad a la que evoluciona. Asistimos, con cierto asombro, al desarrollo de sistemas de IA impensables hace unos años. Con relativa habitualidad, tenemos conocimiento de una nueva aplicación o avance en este avance científico o tecnológico por el impulso de empresas (multinacionales y start-up), así como de Universidades y centros de investigación. Bajo la cobertura del fenómeno de la IA, se engloban realidades muy heterogéneas. Dentro de los mismos, podemos, a título de ejemplo, referirnos al caso de los robots inteligentes y los problemas que se suscitan a propósito de su posible personalidad electrónica; los vehículos autónomos; los drones; y la salud digital. A las particularidades que cada uno de ellos plantea, desde una óptica jurídica, nos referiremos seguidamente.
II. MARCO ÉTICO DE LA IA
La IA, cada vez en mayor medida, se emplea en más procesos y acciones, por lo que así pueden acometerse mejor y con más celeridad, automatizándose actividades que hasta hace poco estaban reservadas a las personas. Uno de los criterios que resulta más difícil de superar es la evaluación ética de los descubrimientos científicos. Cuando la Ciencia protagoniza determinados avances, se plantean ciertos cuestionamientos, a propósito de la ética, así como si la nueva situación es compatible con nuestros valores comunes. Que la tecnología se preste a distintos usos no es equivalente a que la tecnología en sí misma resulte neutral. A priori, podría entenderse que la misma está diseñada para ayudar al cumplimiento de fines e intereses humanos que sean buenos para los individuos y grupos, pero también para el conjunto de la sociedad. Un sector de la doctrina (2) ha planteado un marco ético (3) para el examen de estas tecnologías según la modalidad de tecnología, su significado y su proyección de futuro. En estos ámbitos se suele aludir a diversos problemas vinculados con la igualdad y no discriminación, la protección de datos personales, la responsabilidad, la autonomía, entre otros. Numerosos estudios se han referido a los eventuales riesgos y violaciones que pueden plantearse en relación a ciertos derechos fundamentales (4) .
Una de las cuestiones que plantean más problemas es la autonomía de las aplicaciones o de los sistemas inteligentes. En el caso de que la obra se desvincule de su autor para adoptar decisiones, sobre todo cuando las mismas sean inesperadas, entramos en el terreno de la incertidumbre.
Los sistemas inteligentes cuentan con determinadas facultades que, de hecho, superan a las humanas como, entre otras, son la ausencia de frustración en la consecución de metas, los dilemas perturbadores y la reflexión. El escenario que se plantea cambia cuando surge el atisbo de sentimientos donde se empezarían a reproducir todos los males que interfieren en las actividades de los seres humanos.
Otra materia que se discute es si existirá un momento en el que se pueda afirmar que las máquinas tengan algo asimilable a la conciencia. El punto de partida, en este sentido, es que no existe consenso sobre este último término. Con carácter general, se entiende que es tener percepción del entorno. Debe discernirse, pues no son lo mismo, la capacidad de sentir –que puede ser hambre, frío o calor– y la autoconciencia –que aludiría a la reflexión de quién soy y mi labor en este mundo–. De esta manera, podemos afirmar que la conciencia perceptual es relativamente sencilla de reproducir, si bien la autoconciencia no sólo es más compleja de imitar en sistemas artificiales, sino incluso de definir cuando se refiere a humanos. Podría, por tanto, afirmarse que realmente no hay conciencia, dado que lo que impera es una imitación a partir de determinados datos. Los sistemas de IA no pueden sentir motivaciones internas, dado que todo cuanto externalizan obedece a una previa información descausalizada. La máquina inteligente no es capaz de describir estados emocionales procedentes del entorno y de su aprendizaje, sino que únicamente puede calcular posibles escenarios, dependiendo de la información que se le haya suministrado, adaptando, para ello, la decisión teóricamente conveniente.
Han de replantearse los criterios éticos que deben incidir en el desarrollo de la IA (5) , prestando especial atención a parámetros universales como son el bien y el mal en abstracto. La cuestión que, en cierto sentido, podría advertirse es si resulta posible imprimir en los sistemas de IA propósitos únicamente positivos, así como enseñarles de determinada manera.
En 2018, en el seno de la Comisión Europea, se debatieron las distintas sensibilidades respecto a la regulación ética de la IA. Europa es consciente de que debe tomarse partido, en esta sugerente materia, y adelantarse a una tendencia normativa mundial que probablemente no sea ágil. No resulta sencillo proponer un marco ético de acción porque la temática despierta tantas incertidumbres como posibilidades.
III. DERECHO DE LA IA
Como la realidad cotidiana pone de manifiesto, la IA ha evolucionado con notable celeridad en los últimos años. Se ha convertido en una herramienta de utilidad en diversos sectores como los vehículos autónomos, la salud o la automatización de los procesos. La tecnología debe estar al servicio de las personas, pero no debe convertirnos en sujetos pasivos que estén a merced de las máquinas, que limiten la libertad y la capacidad de iniciativa (6) .
Ahora bien, existe cierta preocupación por la ausencia de regulación legal sobre la materia. Debe tomarse conciencia del hecho de que la IA tiene una doble faceta. Por un lado, tal herramienta es susceptible de ayudar a la resolución de problemas de cierta complejidad. Por otro lado, puede utilizarse con fines eventualmente espurios. Dentro de los últimos supuestos podemos referirnos a los casos en los que se utilizan sistemas de reconocimiento facial que podrían ser susceptibles de discriminar determinados grupos étnicos.
A todo ello trata de responder la normativa legal aprobada por parte del legislador que es objeto de complemento en virtud de la autorregulación de la industria. A nivel comunitario, cabe destacar la Propuesta de Reglamento de la IA, que presenta un alcance general y que será obligatoria en todos sus elementos y directamente aplicable a todos los Estados. En este sentido, cuando entre en vigor, sus preceptos tendrán fuerza de ley, a diferencia de los códigos éticos que tienen carácter facultativo.
1. Normativa imperativa sobre la materia
Dentro de la cuarta revolución industrial y la era de la información, los Estados Unidos, la Unión Europea, organismos internacionales –como la ONU– y determinadas empresas privadas –como Google, IEEE y Microsoft– con una notable influencia en el desarrollo tecnológico actual de la humanidad, nos permite afirmar la tendencia hacia la configuración de un elenco de principios básicos en materia de regulación jurídica de la IA. Antes de entrar en materia, podemos enunciar las populares tres leyes de la robótica formuladas por Asimov: 1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño; 2. Un robot debe cumplir las órdenes dadas por parte de los seres humanos, salvo que entren en conflicto con la primera ley; 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. La economía mundial está entrando en una etapa en la que la IA ostenta el potencial para liderar nuevos tiempos.
En este apartado, cabe plantearse si es conveniente una regulación general o sectorial de la IA. Estados Unidos todavía no ha introducido legislación horizontal en el espacio digital, priorizando las leyes sectoriales y, además, fomenta la innovación en IA. En este sentido, debe ponerse de relieve que una normativa sectorial dejaría sin regular numerosas aplicaciones de la IA aplicadas al uso general. Por el contrario, una regulación general, serviría de base, jurídica y ética, para los especiales desarrollos particulares de la IA.
A nivel europeo, en abril de 2021, se aprobó, por parte de la Comisión Europea, la propuesta de Reglamento de IA. Dicho documento tiene por objeto armonizar las normas relativas a la IA en la Unión Europea para alcanzar un marco jurídico uniforme protector de los derechos fundamentales de los ciudadanos. Permitir que los Estados legislen, de forma independiente, puede implicar la fragmentación del mercado interior y, además, reducir la seguridad jurídica de los operadores que desarrollan, importan o utilizan sistemas de IA.
Asimismo, busca crear un espacio seguro para la innovación en IA que ostente un elevado nivel de protección del interés público, la seguridad, así como los derechos y libertades fundamentales. También se persigue que cree las condiciones para un ecosistema de confianza que fomente la adopción de servicios de IA. La propuesta sigue un enfoque basado en el riesgo, lo que implica que se aplicarán ciertas obligaciones y restricciones según el nivel de riesgo derivado del uso de la IA. El Reglamento establece una serie de mecanismos de control para garantizar el cumplimiento de las normas, incluyendo la designación de autoridades nacionales de supervisión y la posibilidad de imponer sanciones por la inobservancia de las normas.
El Reglamento será aplicable a todos los usos de la IA que afecten a los ciudadanos de la UE con independencia de la sede del proveedor de servicios o del lugar en el que ejecute el sistema (dentro o fuera de las fronteras de la UE). En esta línea se posicionan otros Reglamentos de la UE, como el Reglamento General de Protección de Datos, y otras propuestas legislativas, como la Digital Markets Act y la Digital Services Act.
Posteriormente, tuvo lugar el proceso ordinario de legislación de la Unión Europea. Esto supone que el Consejo de la Unión Europea y el Parlamento Europeo adopten sus posturas en relación a la propuesta de la Comisión, para, a continuación, llegar a un acuerdo en las negociaciones, y poder alcanzar un texto definitivo. En diciembre de 2022, el Consejo de la Unión Europea se posicionó respecto a la propuesta de Reglamento de Inteligencia Artificial. Asimismo, el trabajo en el Parlamento Europeo progresa con cautela.
Con carácter general, parece un texto con un articulado adecuado para ofrecer un entorno de confianza para que Europa sea un referente en los sistemas de IA innovadores en los que se tutelen los derechos y las libertades de acuerdo con los valores de la UE.
2. El sugerente complemento de la autorregulación de la industria
Existen diversas vías en base a las que puede encauzarse el desarrollo, despliegue y utilización de la IA. Cómo hace más de dos décadas determinó el reconocido abogado Lawrence Lessig –profesor de Derecho de la Universidad de Harvard, Standford y Chicago, además de fundador de Creative Commons–, respecto a la ordenación de la Red, la propia tecnología, en virtud del código informático, implica una forma material de ordenación, al fijar las características y límites de los sistemas. La autorregulación se refiere al conjunto de políticas, buenas prácticas, y códigos de conducta con un marcado carácter ético que se establecen para garantizar que los sistemas de IA sean seguros, éticos y responsables en los procesos de toma de decisiones.
El fenómeno de la autorregulación –soft law– goza de un mayor protagonismo y desarrollo en el mundo anglosajón, en la que la industria se adelanta al legislador, mientras que en el Derecho continental europeo es el legislador el que fomenta el recurso a este instrumento, a través del Derecho imperativo –hard law–. En materia tecnológica, existen ciertas corrientes que no se posicionan a favor del Derecho imperativo en esta materia. Podría tratarse de una prevención general que tiende a ver el Derecho, en sentido estricto, como una limitación para el desarrollo tecnológico o social. En cualquier caso, estimamos que es un planteamiento erróneo, pues la autorregulación complementa, pero no sustituye, la normativa legal vigente en cada momento. Los instrumentos legislativos crean un marco de seguridad jurídica, haciendo realidad las aspiraciones éticas, fijando incentivos adecuados, y medidas que aseguren el respecto de los derechos fundamentales. La función que el Derecho desempeña no se puede sustituir, siempre en coordinación con mecanismos de autorregulación.
La autodisciplina puede incluir la implementación de mecanismos de verificación