{"id":638,"date":"2025-02-14T11:00:00","date_gmt":"2025-02-14T10:00:00","guid":{"rendered":"https:\/\/retina-der.uniovi.es\/?p=638"},"modified":"2025-03-07T13:35:34","modified_gmt":"2025-03-07T12:35:34","slug":"las-directrices-de-la-comision-europea-sobre-la-definicion-de-los-sistemas-de-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/retina-der.uniovi.es\/index.php\/2025\/02\/14\/las-directrices-de-la-comision-europea-sobre-la-definicion-de-los-sistemas-de-inteligencia-artificial\/","title":{"rendered":"Las Directrices de la Comisi\u00f3n Europea sobre la definici\u00f3n de los sistemas de inteligencia artificial"},"content":{"rendered":"\n<p><\/p>\n\n\n\n<p class=\"has-text-align-right\"><em>Miguel \u00c1ngel Presno Linera<\/em><\/p>\n\n\n\n<p class=\"justificado\">El pasado 6 de febrero, la Comisi\u00f3n Europea public\u00f3 <a href=\"https:\/\/ec.europa.eu\/newsroom\/dae\/redirection\/document\/112455\">las Directrices sobre la definici\u00f3n de sistemas de inteligencia artificial<\/a> para facilitar la aplicaci\u00f3n de las normas del Reglamento (UE) 2024\/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (<a href=\"https:\/\/retina-der.uniovi.es\/index.php\/2025\/01\/16\/normativa-europea-de-inteligencia-artificial-reglamento-de-la-union-europea-y-convenio-marco-del-consejo-de-europa\/\">en adelante, RIA; aqu\u00ed puede descargarse, junto con el Convenio Marco del Consejo de Europa sobre sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho, con un breve estudio introductorio<\/a>). El art\u00edculo 96.1.f) del RIA exige a la Comisi\u00f3n que elabore directrices sobre la aplicaci\u00f3n de la definici\u00f3n de sistema de IA establecida en el art\u00edculo 3.1, que entr\u00f3 en vigor el 2 de febrero de 2025, junto con otras disposiciones establecidas en los cap\u00edtulos I y II del RIA, en particular el art\u00edculo 5 sobre pr\u00e1cticas prohibidas de IA. Dado que la definici\u00f3n de un sistema de IA es decisiva para comprender el \u00e1mbito de aplicaci\u00f3n de la Ley de IA, incluidas las pr\u00e1cticas prohibidas, las presentes Directrices se adoptan en paralelo a las <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act\">Directrices de la Comisi\u00f3n sobre pr\u00e1cticas prohibidas de inteligencia artificial<\/a>, sobre las que ha realizado un primer an\u00e1lisis el <a href=\"https:\/\/www.cotino.es\/\">profesor Lorenzo Cotino<\/a>.<\/p>\n\n\n\n<p class=\"justificado\">Las Directrices que a continuaci\u00f3n se resumen, traducidas del ingl\u00e9s de forma autom\u00e1tica, no son vinculantes. Cualquier interpretaci\u00f3n autorizada solo puede ser dada en \u00faltima instancia por el Tribunal de Justicia de la Uni\u00f3n Europea.<\/p>\n\n\n\n<p class=\"justificado\">En el p\u00e1rrafo 1 del art\u00edculo 3 del RIA se define un sistema de IA de la siguiente manera: \u00abSistema de IA&#8217;: un sistema basado en una m\u00e1quina que est\u00e1 dise\u00f1ado para funcionar con diversos niveles de autonom\u00eda y que puede mostrar adaptabilidad despu\u00e9s de su implementaci\u00f3n, y que, para objetivos expl\u00edcitos o impl\u00edcitos, infiere, a partir de la informaci\u00f3n que recibe, c\u00f3mo generar resultados como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos f\u00edsicos o virtuales\u00bb.<\/p>\n\n\n\n<p class=\"justificado\">Esta definici\u00f3n comprende siete elementos principales: 1) un sistema basado en m\u00e1quinas; (2) que est\u00e9 dise\u00f1ado para operar con diferentes niveles de autonom\u00eda; (3) que pueden exhibir adaptabilidad despu\u00e9s del despliegue; (4) que, para objetivos expl\u00edcitos o impl\u00edcitos; (5) infiere, a partir de la entrada que recibe, c\u00f3mo generar salidas (6) como predicciones, contenido, recomendaciones o decisiones (7) que pueden influir en entornos f\u00edsicos o virtuales.<\/p>\n\n\n\n<p class=\"justificado\">La definici\u00f3n de un sistema de IA adopta una perspectiva basada en el ciclo de vida que abarca dos fases principales: la fase previa al despliegue o de \u00abconstrucci\u00f3n\u00bb del sistema y la fase posterior al despliegue o \u00abuso\u00bb del sistema. No es necesario que los siete elementos est\u00e9n presentes de forma ininterrumpida a lo largo de ambas fases de ese ciclo de vida. Este enfoque refleja la complejidad y diversidad de los sistemas de IA, garantizando que la definici\u00f3n se alinee con los objetivos de la Ley de IA al dar cabida a una amplia gama de sistemas de IA.<\/p>\n\n\n\n<p class=\"justificado\">1. Sistema basado en m\u00e1quinas. El t\u00e9rmino \u00abbasado en m\u00e1quinas\u00bb se refiere al hecho de que los sistemas de IA se desarrollan con m\u00e1quinas y se ejecutan en ellas. El t\u00e9rmino \u00abm\u00e1quina\u00bb puede entenderse como los componentes de <em>hardware<\/em> y software que permiten el funcionamiento del sistema de IA. Los componentes de <em>hardware<\/em> se refieren a los elementos f\u00edsicos de la m\u00e1quina, como las unidades de procesamiento, la memoria, los dispositivos de almacenamiento, las unidades de red y las interfaces de entrada\/salida, que proporcionan la infraestructura para el c\u00e1lculo. Los componentes de <em>software<\/em> abarcan c\u00f3digo inform\u00e1tico, instrucciones, programas, sistemas operativos y aplicaciones que manejan c\u00f3mo el <em>hardware<\/em> procesa datos y realiza tareas.<\/p>\n\n\n\n<p class=\"justificado\">Todos los sistemas de IA est\u00e1n basados en m\u00e1quinas, ya que las requieren para permitir su funcionamiento, como el entrenamiento de modelos, el procesamiento de datos, el modelado predictivo y la toma de decisiones automatizada a gran escala. Todo el ciclo de vida de los sistemas avanzados de IA se basa en m\u00e1quinas que pueden incluir muchos componentes de <em>hardware<\/em> o <em>software<\/em>.<\/p>\n\n\n\n<p class=\"justificado\">2. Autonom\u00eda. El segundo elemento de la definici\u00f3n se refiere a que el sistema est\u00e1 \u00abdise\u00f1ado para funcionar con diferentes niveles de autonom\u00eda\u00bb. El considerando 12 del RIA aclara que los t\u00e9rminos \u00abdistintos niveles de autonom\u00eda\u00bb significan que los sistemas de IA est\u00e1n dise\u00f1ados para funcionar con \u00abcierto grado de independencia de las acciones respecto a la intervenci\u00f3n humana y de capacidades para funcionar sin intervenci\u00f3n humana\u00bb.<\/p>\n\n\n\n<p class=\"justificado\">Las nociones de autonom\u00eda e inferencia van de la mano: la capacidad de inferencia de un sistema de IA (es decir, su capacidad para generar resultados como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos f\u00edsicos o virtuales) es clave para lograr su autonom\u00eda.<\/p>\n\n\n\n<p>La referencia a \u00abcierto grado de independencia de acci\u00f3n\u00bb en el considerando 12 del RIA excluye los sistemas dise\u00f1ados para funcionar \u00fanicamente con la plena participaci\u00f3n e intervenci\u00f3n humana manual. La participaci\u00f3n y la intervenci\u00f3n humana pueden ser directas, por ejemplo, a trav\u00e9s de controles manuales, o indirectas, por ejemplo, a trav\u00e9s de controles automatizados basados en sistemas que permiten a los humanos delegar o supervisar las operaciones del sistema. Por lo tanto, el nivel de autonom\u00eda es una condici\u00f3n necesaria para determinar si un sistema califica como un sistema de IA. Todos los sistemas que est\u00e1n dise\u00f1ados para funcionar con cierto grado razonable de independencia de acciones cumplen la condici\u00f3n de autonom\u00eda en la definici\u00f3n de un sistema de IA.<\/p>\n\n\n\n<p class=\"justificado\">3. Capacidad de adaptaci\u00f3n. El tercer elemento de la definici\u00f3n es que el sistema \u00abpodr\u00e1 presentar capacidad de adaptaci\u00f3n tras su despliegue\u00bb. Los conceptos de autonom\u00eda y adaptabilidad son distintos pero est\u00e1n estrechamente relacionados. El considerando 12 del RIA aclara que la \u00abadaptabilidad\u00bb se refiere a las capacidades de autoaprendizaje, lo que permite que el comportamiento del sistema cambie mientras est\u00e1 en uso. El nuevo comportamiento del sistema adaptado puede producir resultados diferentes del sistema anterior para las mismas entradas. La capacidad de un sistema para aprender autom\u00e1ticamente, descubrir nuevos patrones o identificar relaciones en los datos m\u00e1s all\u00e1 de lo que se entren\u00f3 inicialmente es una condici\u00f3n facultativa y, por lo tanto, no una condici\u00f3n decisiva para determinar si el sistema califica como un sistema de IA.<\/p>\n\n\n\n<p class=\"justificado\">4. Objetivos del sistema de IA. Los sistemas de IA est\u00e1n dise\u00f1ados para operar de acuerdo con uno o m\u00e1s objetivos. Los objetivos expl\u00edcitos se refieren a metas claramente establecidas que son codificadas directamente por el desarrollador en el sistema. Por ejemplo, pueden especificarse como la optimizaci\u00f3n de alguna funci\u00f3n de costo, una probabilidad o una recompensa acumulativa. Los objetivos impl\u00edcitos se refieren a metas que no se establecen expl\u00edcitamente, pero que pueden deducirse del comportamiento o de los supuestos subyacentes del sistema. Estos objetivos pueden surgir de los datos de entrenamiento o de la interacci\u00f3n del sistema de IA con su entorno.<\/p>\n\n\n\n<p class=\"justificado\">5. Inferencia de c\u00f3mo generar resultados utilizando t\u00e9cnicas de IA. El quinto elemento de un sistema de IA es que debe ser capaz de inferir, a partir de la entrada que recibe, c\u00f3mo generar salidas.&nbsp; Esta capacidad de inferir es, por lo tanto, una condici\u00f3n clave e indispensable que distingue a los sistemas de IA de otros tipos de sistemas. El considerando 12 tambi\u00e9n explica que \u00ab[e]sta capacidad de inferir se refiere al proceso de obtenci\u00f3n de los resultados, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en los entornos f\u00edsicos y virtuales, y a la capacidad de los sistemas de IA para derivar modelos o algoritmos, o ambos, a partir de entradas o datos\u00bb. El \u00abproceso de obtenci\u00f3n de los resultados, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en los entornos f\u00edsicos y virtuales\u00bb, se refiere a la capacidad del sistema de IA, principalmente en la \u00abfase de uso\u00bb, para generar productos basados en los insumos. La \u00abcapacidad de los sistemas de IA para derivar modelos o algoritmos, o ambos, a partir de entradas o datos\u00bb se refiere principalmente, pero no se limita a, la \u00abfase de construcci\u00f3n\u00bb del sistema y subraya la importancia de las t\u00e9cnicas utilizadas para construir un sistema.<\/p>\n\n\n\n<p class=\"justificado\">La primera categor\u00eda de t\u00e9cnicas de IA mencionada en el considerando 12 de la Ley de IA es \u00abenfoques de aprendizaje autom\u00e1tico que aprenden de los datos c\u00f3mo alcanzar determinados objetivos\u00bb. Esta categor\u00eda incluye una gran variedad de enfoques que permiten a un sistema \u00abaprender\u00bb, como el aprendizaje supervisado, el no supervisado, el autosupervisado y el aprendizaje por refuerzo.<\/p>\n\n\n\n<p class=\"justificado\">En el caso del aprendizaje supervisado, el sistema de IA aprende de las anotaciones (datos etiquetados), por lo que los datos de entrada se emparejan con la salida correcta. El sistema utiliza esas anotaciones para aprender una asignaci\u00f3n de entradas a salidas y luego la generaliza a nuevos datos invisibles. Un sistema de detecci\u00f3n de spam de correo electr\u00f3nico habilitado para IA es un ejemplo de un sistema de aprendizaje supervisado. Durante su fase de construcci\u00f3n, el sistema se entrena con un conjunto de datos que contiene correos electr\u00f3nicos que los humanos han etiquetado como \u00abspam\u00bb o \u00abno spam\u00bb para aprender patrones de las caracter\u00edsticas de los correos electr\u00f3nicos etiquetados. Una vez entrenado y en uso, el sistema puede analizar nuevos correos electr\u00f3nicos y clasificarlos como spam o no spam en funci\u00f3n de los patrones que ha aprendido de los datos etiquetados. Otros ejemplos de sistemas de IA basados en el aprendizaje supervisado son los sistemas de clasificaci\u00f3n de im\u00e1genes entrenados con un conjunto de datos de im\u00e1genes, en los que cada imagen se etiqueta con un conjunto de etiquetas (por ejemplo, objetos como coches), los sistemas de diagn\u00f3stico de dispositivos m\u00e9dicos entrenados con im\u00e1genes m\u00e9dicas etiquetadas por expertos humanos y los sistemas de detecci\u00f3n de fraudes que se entrenan con datos de transacciones etiquetados.<\/p>\n\n\n\n<p class=\"justificado\">En el caso del aprendizaje no supervisado el modelo se entrena con datos sin etiquetas ni salidas predefinidas. Mediante el uso de diferentes t\u00e9cnicas, como la agrupaci\u00f3n, la reducci\u00f3n de dimensionalidad, el aprendizaje de reglas de asociaci\u00f3n, la detecci\u00f3n de anomal\u00edas o los modelos generativos, el sistema se entrena para encontrar patrones, estructuras o relaciones en los datos sin una orientaci\u00f3n expl\u00edcita sobre cu\u00e1l deber\u00eda ser el resultado. As\u00ed, por ejemplo, los sistemas de IA utilizan el aprendizaje no supervisado para agrupar compuestos qu\u00edmicos y predecir posibles nuevos tratamientos para enfermedades en funci\u00f3n de sus similitudes con los f\u00e1rmacos existentes.<\/p>\n\n\n\n<p class=\"justificado\">El aprendizaje autosupervisado es una subcategor\u00eda del aprendizaje no supervisado en la que el sistema de IA aprende utilizando los propios datos para crear sus propias etiquetas u objetivos. Para ello utilizan diversas t\u00e9cnicas, como los autocodificadores, las redes generativas adversarias o el aprendizaje contrastivo. Un sistema de reconocimiento de im\u00e1genes que aprende a reconocer objetos mediante la predicci\u00f3n de los p\u00edxeles que faltan en una imagen es un ejemplo de un sistema de IA basado en el aprendizaje autosupervisado.<\/p>\n\n\n\n<p class=\"justificado\">Los sistemas de IA basados en el aprendizaje por refuerzo aprenden de los datos recopilados de su propia experiencia a trav\u00e9s de una funci\u00f3n de \u00abrecompensa\u00bb. A diferencia de los sistemas de IA que aprenden de datos etiquetados (aprendizaje supervisado) o que aprenden de patrones (aprendizaje no supervisado), los sistemas de IA basados en el aprendizaje por refuerzo aprenden de la experiencia. Al sistema no se le dan etiquetas expl\u00edcitas, sino que aprende por ensayo y error, refinando su estrategia en funci\u00f3n de la retroalimentaci\u00f3n que recibe del entorno. Un brazo rob\u00f3tico habilitado para IA que puede realizar tareas como agarrar objetos es un ejemplo de un sistema de IA basado en el aprendizaje por refuerzo. El aprendizaje por refuerzo tambi\u00e9n se puede utilizar, por ejemplo, para optimizar las recomendaciones de contenido personalizadas en los motores de b\u00fasqueda y el rendimiento de los veh\u00edculos aut\u00f3nomos.<\/p>\n\n\n\n<p class=\"justificado\">El aprendizaje profundo es un subconjunto del aprendizaje autom\u00e1tico que utiliza arquitecturas en capas (redes neuronales) para el aprendizaje de representaciones. Los sistemas de IA basados en el aprendizaje profundo pueden aprender autom\u00e1ticamente caracter\u00edsticas a partir de datos sin procesar, lo que elimina la necesidad de ingenier\u00eda manual de funciones. Debido a la cantidad de capas y par\u00e1metros, los sistemas de IA basados en el aprendizaje profundo suelen requerir grandes cantidades de datos para entrenarse, pero pueden aprender a reconocer patrones y hacer predicciones con alta precisi\u00f3n cuando se les proporcionan datos suficientes.<\/p>\n\n\n\n<p class=\"justificado\">Adem\u00e1s de los diversos enfoques de aprendizaje autom\u00e1tico mencionados anteriormente, la segunda categor\u00eda de t\u00e9cnicas mencionadas en el considerando 12 del RIA son \u00abenfoques basados en la l\u00f3gica y el conocimiento que infieren a partir del conocimiento codificado o la representaci\u00f3n simb\u00f3lica de la tarea que se va a resolver\u00bb. En lugar de aprender de los datos, aprenden del conocimiento, incluidas las reglas, los hechos y las relaciones, codificados por expertos humanos; sobre esa base pueden \u00abrazonar\u00bb a trav\u00e9s de motores deductivos o inductivos o utilizando operaciones como la clasificaci\u00f3n, la b\u00fasqueda, la coincidencia y el encadenamiento. Al utilizar la inferencia l\u00f3gica para sacar conclusiones, estos sistemas aplican la l\u00f3gica formal, reglas predefinidas u ontolog\u00edas a nuevas situaciones. Por ejemplo, los sistemas expertos de primera generaci\u00f3n destinados al diagn\u00f3stico m\u00e9dico, que se desarrollan codificando el conocimiento de una serie de expertos m\u00e9dicos y que est\u00e1n destinados a extraer conclusiones de un conjunto de s\u00edntomas de un paciente determinado.<\/p>\n\n\n\n<p class=\"justificado\">6. Salidas que pueden influir en entornos f\u00edsicos o virtuales.&nbsp; El sexto elemento de la definici\u00f3n es que el sistema infiere \u00abc\u00f3mo generar resultados como predicciones, contenidos, recomendaciones o decisiones que puedan influir en entornos f\u00edsicos o virtuales\u00bb. La capacidad de un sistema para generar resultados, como predicciones, contenido y recomendaciones, en funci\u00f3n de los datos que recibe y utilizando el aprendizaje autom\u00e1tico y los enfoques basados en la l\u00f3gica y el conocimiento, es fundamental para lo que hacen los sistemas de IA y lo que distingue a esos sistemas de otras formas de <em>software<\/em>.<\/p>\n\n\n\n<p class=\"justificado\">Las predicciones son uno de los resultados m\u00e1s comunes que produce el sistema de IA y que requieren la menor participaci\u00f3n humana. Una predicci\u00f3n es una estimaci\u00f3n sobre un valor desconocido (la salida) a partir de valores conocidos suministrados al sistema (la entrada). Por ejemplo, los sistemas de IA desplegados en los coches aut\u00f3nomos est\u00e1n dise\u00f1ados para hacer predicciones en tiempo real en un entorno extremadamente complejo y din\u00e1mico, con m\u00faltiples tipos de agentes e interacciones, y un n\u00famero pr\u00e1cticamente infinito de situaciones posibles, y para tomar decisiones para ajustar su comportamiento en consecuencia. Del mismo modo, los sistemas de IA para el consumo de energ\u00eda est\u00e1n dise\u00f1ados para estimar el consumo de energ\u00eda mediante el an\u00e1lisis de datos de contadores inteligentes, previsiones meteorol\u00f3gicas y patrones de comportamiento de los consumidores. Al basarse en enfoques de aprendizaje autom\u00e1tico, un sistema de IA est\u00e1 dise\u00f1ado para encontrar correlaciones complejas entre estas variables para hacer predicciones m\u00e1s precisas del consumo de energ\u00eda.<\/p>\n\n\n\n<p class=\"justificado\">El contenido se refiere a la generaci\u00f3n de nuevo material por parte de un sistema de IA. Esto puede incluir texto, im\u00e1genes, v\u00eddeos, m\u00fasica y otras formas de salida. Cada vez son m\u00e1s los sistemas de IA que utilizan modelos de aprendizaje autom\u00e1tico (por ejemplo, basados en tecnolog\u00edas de transformadores generativos preentrenados (GPT)) para generar contenido.<\/p>\n\n\n\n<p class=\"justificado\">Las recomendaciones se refieren a las sugerencias de acciones, productos o servicios espec\u00edficos para los usuarios en funci\u00f3n de sus preferencias, comportamientos u otras entradas de datos. En algunos casos, las recomendaciones se refieren a posibles decisiones, como contratar a un candidato en un sistema de reclutamiento, que ser\u00e1n evaluadas por humanos. Si estas recomendaciones se aplican autom\u00e1ticamente, se convierten en decisiones.<\/p>\n\n\n\n<p class=\"justificado\">Las decisiones se refieren a las conclusiones o elecciones hechas por un sistema a trav\u00e9s de un proceso totalmente automatizado en el que se produce un determinado resultado en el entorno que rodea al sistema sin ninguna intervenci\u00f3n humana.<\/p>\n\n\n\n<p class=\"justificado\">7. Interacci\u00f3n con el entorno. El s\u00e9ptimo elemento de la definici\u00f3n es que los resultados del sistema \u00abpueden influir en entornos f\u00edsicos o virtuales\u00bb. Este elemento debe entenderse en el sentido de que hace hincapi\u00e9 en el hecho de que los sistemas de IA no son pasivos, sino que tienen un impacto activo en el medio ambiente en el que se despliegan. La referencia a los \u00abentornos f\u00edsicos o virtuales\u00bb indica que la influencia de un sistema de IA puede ser tanto en los objetos tangibles y f\u00edsicos (por ejemplo, el brazo de un robot) como en los entornos virtuales, incluidos los espacios digitales, los flujos de datos y los ecosistemas de <em>software<\/em>.<\/p>\n\n\n\n<p class=\"justificado\">Observaciones finales. La definici\u00f3n de un sistema de IA abarca un amplio espectro de sistemas. La determinaci\u00f3n de si un sistema inform\u00e1tico es un sistema de IA debe basarse en su &nbsp;arquitectura y la funcionalidad espec\u00edficas&nbsp; y debe tener en cuenta los siete elementos mencionados.<\/p>\n\n\n\n<p class=\"justificado\">El enfoque basado en el riesgo de la Ley de IA significa que solo los sistemas que generen los riesgos m\u00e1s significativos para los derechos y libertades fundamentales estar\u00e1n sujetos a sus prohibiciones establecidas en el art\u00edculo 5 del RIA, a su r\u00e9gimen regulador de los sistemas de IA de alto riesgo cubierto por el art\u00edculo 6 y a sus requisitos de transparencia para un n\u00famero limitado de sistemas de IA predefinidos establecidos en el art\u00edculo 50. La gran mayor\u00eda de los sistemas, incluso si califican como sistemas de IA en el sentido del art\u00edculo 3.1 del RIA, no estar\u00e1n sujetos a ning\u00fan requisito reglamentario.<\/p>\n\n\n\n<p class=\"justificado\">La Ley de IA tambi\u00e9n se aplica a los modelos de IA de uso general, que est\u00e1n regulados en el Cap\u00edtulo V de la Ley de IA. El an\u00e1lisis de las diferencias entre los sistemas de IA y los modelos de IA de uso general queda fuera del \u00e1mbito de aplicaci\u00f3n de las presentes Directrices.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Miguel \u00c1ngel Presno Linera El pasado 6 de febrero, la Comisi\u00f3n Europea public\u00f3 las Directrices sobre la definici\u00f3n de sistemas de inteligencia artificial para facilitar la aplicaci\u00f3n de las normas del Reglamento (UE) 2024\/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[27],"tags":[10],"class_list":["post-638","post","type-post","status-publish","format-standard","hentry","category-blog","tag-miguel-presno"],"_links":{"self":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts\/638","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/comments?post=638"}],"version-history":[{"count":2,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts\/638\/revisions"}],"predecessor-version":[{"id":691,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/posts\/638\/revisions\/691"}],"wp:attachment":[{"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/media?parent=638"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/categories?post=638"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/retina-der.uniovi.es\/index.php\/wp-json\/wp\/v2\/tags?post=638"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}