Indice de contenidos
Sukarrieta, 28 de enero de 2026. Cada día, miles de imágenes y señales recogidas en el mar —sonares, boyas, satélites, cámaras instaladas en barcos— generan cantidades ingentes de datos. La inteligencia artificial ya se utiliza para interpretarlos: desde detectar delfines en tiempo real, hasta estimar indicadores de biodiversidad, o identificar automáticamente especies capturadas a bordo para mejorar los modelos de gestión pesquera o resolución de conflictos en gestión marina espacial.
Pero detrás de esta revolución tecnológica surge una pregunta clave: ¿podemos confiar plenamente en lo que dice una IA cuando está en juego la salud del océano?
Para responder a este reto, un equipo europeo liderado por AZTI ha desarrollado un marco de referencia que establece tres pilares para que la IA marina sea fiable, ética y científicamente robusta. El trabajo completo se recoge en el artículo científico Towards Trustworthy Artificial Intelligence for Marine Research, Fisheries and Environmental Management publicado en la revista científica Fish and Fisheries.
La IA ofrece enormes posibilidades, pero también riesgos. Una cámara a bordo puede confundir dos especies parecidas si no ha sido entrenada por expertos y con imágenes de distintas condiciones de luz. Un modelo que predice la abundancia de una población de peces puede fallar si se desarrolla con datos incompletos o sesgados debido a limitaciones inherentes a todo muestreo, y acabar generando una evaluación inexacta de la situación real. Además, una herramienta automatizada puede generar rechazo en el sector si no se entiende cómo toma sus decisiones o si no ha sido diseñada contando con el conocimiento práctico de las personas que trabajan en el mar. Estos ejemplos muestran por qué es imprescindible contar con criterios sólidos de calidad, transparencia y validación, especialmente en un ámbito donde las decisiones afectan a ecosistemas, comunidades pesqueras y políticas públicas.
El marco propuesto por el equipo investigador se articula en torno a tres grandes pilares. El primero se centra en la viabilidad socioeconómica y legal. El desarrollo y uso de la IA deben ser accesibles para el conjunto del sector marino, incluida la pesca a pequeña escala, y estar alineados con la normativa europea, incluido el nuevo Reglamento de IA. El estudio subraya que las herramientas más efectivas son aquellas que se diseñan con la participación directa de los actores implicados, y no únicamente para ellos, lo que permite aumentar la aceptación social, incorporar el conocimiento local y reducir resistencias.
El segundo pilar se refiere a la gobernanza ética del dato. Para que un sistema de IA funcione bien, necesita datos diversos, limpios, trazables y gestionados de forma responsable. En este trabajo se propone aplicar principios como FAIR, CARE y TRUST a los datos marinos, de manera que la información utilizada —imágenes, señales de sensores, series históricas de monitoreo— sea accesible, interoperable, respetuosa con las comunidades que la generan y preservada adecuadamente a largo plazo. Una buena gobernanza de datos es la base para que los resultados de la IA sean transparentes, reproducibles y auditables.
El tercer pilar se centra en la robustez técnica y la validación científica. La IA debe demostrar que funciona bajo las condiciones reales del océano, y no solo en entornos controlados. El estudio recomienda validar los modelos con datos independientes, aplicar pruebas estadísticas y contrastar sus resultados con información obtenida sobre el terreno. Un ejemplo concreto es la comparación entre el análisis automatizado de las capturas y el muestreo manual en puerto, que permite comprobar hasta qué punto los algoritmos reflejan fielmente lo que sucede a bordo. Esta combinación de métodos contribuye a reducir errores, evitar sobre confianza en los modelos y ofrecer herramientas realmente útiles para la gestión.
Para Jose A. Fernandes, experto en IA de AZTI, autor principal del estudio: “Estamos viendo una explosión del uso de algoritmos pero que a menudo no cumplen las expectativas iniciales. La pregunta clave es: ¿Qué podemos hacer para evaluar cuánta confianza les otorgamos? Teniendo en cuenta que la IA ya es una realidad para el sector pesquero y la investigación marina, solo será útil si es confiable. Nuestro trabajo establece cómo asegurarlo, combinando ciencia, ética y participación del sector.”
Según Sebastian Villasante, co-autor del estudio e investigador distinguido del Instituto de tecnologías ambientales CRETUS de la Universidad de Santiago de Compostela, “las herramientas de IA deberían diseñarse mediante enfoques inclusivos y participativos de coproducción del conocimiento que integren el conocimiento y la experiencia locales y específicos de cada sector, así como las necesidades económicas, con los grupos de desarrollo científico y tecnológico que las producen”.
La aplicación de este marco tiene implicaciones directas para la comunidad científica, las administraciones, el sector pesquero y la ciudadanía.
Para la investigación marina, significa disponer de criterios homogéneos a la hora de desarrollar, evaluar y comparar modelos de IA, lo que puede acelerar la generación de conocimiento y mejorar la calidad de las predicciones sobre el estado de los ecosistemas y el impacto del cambio climático.
Para la gestión pesquera y ambiental, supone contar con herramientas más transparentes y robustas para apoyar decisiones complejas, desde la asignación de cuotas hasta la planificación espacial marina o la vigilancia de actividades ilegales. Si los modelos se validan adecuadamente y los datos se gestionan con rigor, la IA puede ayudar a optimizar rutas, reducir el consumo de combustible, mejorar la trazabilidad de los productos y reforzar la sostenibilidad de las actividades en el mar.
Para la sociedad en su conjunto, este enfoque contribuye a que la digitalización del océano se produzca de forma responsable. Una IA confiable permite avanzar hacia una economía azul más sostenible, con beneficios tanto para la biodiversidad como para las comunidades que dependen del mar.
El objetivo último, en palabras del equipo investigador, es que la IA no sustituya la toma de decisiones humanas, sino que la refuerce con información más rápida, precisa, transparente y comprensible.