CONECTATE CON NOSOTROS

Ciencia y Tecnología

Científicos del Conicet descubrieron 40 nuevas especies en Mar del Plata

La expedición de científicos del Conicet transmitida por streaming permitió descubrir 40 nuevas especies marinas en Mar del Plata

Avatar

Publicado

el

La histórica expedición liderada por científicos del Conicet en el océano profundo del cañón submarino Mar del Plata, que causó furor al ser transmitida en vivo y en directo, marcó un hito y permitió descubrir 40 nuevas especies marinas y una diversidad inesperada en corales de aguas frías a una profundidad de 3.900 metros.

Así lo revelaron los resultados preliminares de la expedición “Underwater Oases of Mar Del Plata Canyon: Talud Continental IV”, una campaña realizada a bordo del buque R/V Falkor (too) del Schmidt Ocean Institute.

La misión representó sin dudas un verdadero salto tecnológico y científico sin precedentes no solo por el uso del (ROV) SuBastian, un vehículo operado de manera remora, capaz de capturar imágenes submarinas en ultra alta definición y recolectar muestras del océano profundo sin alterar el entorno, sino también porque fue la primera vez que una campaña científica argentina se transmitió en vivo.

La expedición se extendió por 21 días y se pudo ver en vivo y en directo por Youtube y Twitch, alcanzando casi 18 millones de visualizaciones.

Según informaron desde el Conicet, la transmisión batió todos los récords de participación del Schmidt Ocean Institute: mientras que la mayoría de las inmersiones de otras campañas tienen una media de alrededor de cuatro mil visualizaciones; esta expedición tuvo una media de quinientas mil visualizaciones por inmersión, con un total de casi dieciocho millones de visualizaciones en tres semanas.

Durante la expedición, el equipo científico documentó una rica biodiversidad, incluyendo arrecifes de coral a una profundidad de 1014 metros, compuestos por Bathelia candida, una especie de coral pétreo que forma hábitats.

A 1500 metros de profundidad encontraron un extenso campo de Anthomastus sp. rojo, un coral blando de aguas profundas.

En total, los científicos sospechan que han descubierto más de cuarenta nuevas especies, entre las que se incluyen anémonas de mar, pepinos de mar, erizos de mar, caracoles, corales y crinoideos, entre otros.

Ahora resta confirmar las nuevas especies, lo cual llevará tiempo debido a que los científicos deberán compararlas con animales ya conocidos.

“Ahora viene una etapa de trabajo de laboratorio y de computadora. En el caso de la taxonomía, por ejemplo, estamos reconociendo las especies nuevas y describiendo lo que vimos, revisando géneros, familias, literatura para hacer comparaciones, y esa etapa nos puede tomar meses o años”, explicó Daniel Lauretta, jefe de la expedición, científico del Conicet y del Museo Argentino de Ciencias Naturales Bernardino Rivadavia.

Y agregó: “En cuanto a los primeros resultados de microplásticos y carbono azul, van a llevar al menos seis meses. Y lo que estimamos va a tomar más tiempo será analizar las doscientas horas de filmación que trajimos registradas”.

FUENTE: Minuto Uno

Ciencia y Tecnología

Es hora de Demostrar Control. Por qué las empresas latinoamericanas deben adoptar un SGSI

Ante los ciberataques lo que sí debe preocupar es la incapacidad de demostrar que controlan lo que debería estar bajo su resguardo, allí está la clave.

Avatar

Publicado

el

*

Estamos apenas en el primer mes del 2026 y ya los ciberataques comienzan a aparecer; esta vez atacando a una división de una gigante eléctrica de España, donde datos sensibles quedaron expuestos a raíz de un ataque informático. Sin duda, esto nos obliga a reflexionar sobre un punto esencial: no es el hackeo en sí lo que debe preocuparnos como primer eje, porque mientras existan personas dispuestas a realizar estos ataques, el riesgo no va a desaparecer. Lo que sí debe preocuparnos es la incapacidad de demostrar que controlamos lo que debería estar bajo nuestro resguardo, allí está la clave.

En nuestras organizaciones, los incidentes de ciberseguridad no son eventos impredecibles aislados: son amenazas del entorno operativo en el que vivimos hoy. Lo que verdaderamente distingue a las empresas que sobreviven de las que quedan expuestas no es que ninguna haya sido atacada, sino que algunas tienen sistemas que permiten demostrar que conocen sus riesgos, los gestionan y cuentan con evidencia verificable de ese control.

En ese contexto, la norma internacional ISO 27001, que especifica los requisitos para establecer, implementar, mantener y mejorar un Sistema de Gestión de la Seguridad de la Información (SGSI), se posiciona como una referencia estratégica más que como una formalidad técnica. Tener un SGSI certificado significa haber pasado por una evaluación rigurosa de cómo se identifican, tratan y monitorean los riesgos de información en toda la organización.

Según ISO Survey 2024, la norma ISO 27001 superó los 96.709 certificados activos en todo el mundo, con 179.877 sitios bajo esa gestión certificada. Esto representa un crecimiento notable sostenido en los últimos años, reflejando que cada vez más organizaciones comprenden que contar con un SGSI no es solo proteger datos, sino demostrar que se puede auditar esa protección. En la práctica, esto tiene un impacto directo en la percepción de clientes, reguladores y socios comerciales, que ven en una certificación un compromiso verificable con la integridad de la información.

Este crecimiento no es casual. En un mundo donde los datos valen tanto como los activos tangibles, el mercado global ha replicado una tendencia firme: las certificaciones ISO no son un “plus”, sino una barrera de entrada para competir en ciertos sectores y geografías. En Latinoamérica, por su parte, la norma ISO 27001 debe dejar de ser solamente una práctica recomendada para convertirse en una expectativa de mercado para quienes operan con información personal, financiera o estratégica de terceros.

Una empresa sin un sistema de gestión de la seguridad de la información formalizado se parece demasiado a una organización que confía en la buena voluntad de sus responsables para “no fallar”: una esperanza frágil en un entorno donde los ciberataques son cada vez más sofisticados y frecuentes. Este modelo conduce casi inevitablemente a escenarios en los que, cuando ocurre un incidente, la primera pregunta de cualquier auditor, regulador o cliente es: ¿puede demostrar lo que dijo que tenía bajo control?

No se trata solo de evitar sanciones o rescatar reputaciones dañadas: se trata de sostener la viabilidad del negocio en un mercado que premie la gestión basada en evidencia, documentación, responsabilidad y mejora continua. Ahí radica la trascendencia de asociar un estándar como ISO 27001 con la estrategia corporativa: no solo gestionamos la seguridad, sino que demostramos que gestionamos la seguridad.

En definitiva, más allá de la alarma que generan los titulares sobre hackeos o brechas, lo que verdaderamente nos debe ocupar, como dueños y gerentes, es si nuestras empresas pueden demostrar con evidencia que controlan sus datos y procesos críticos. Esa capacidad no surge de una herramienta aislada ni de protocolos internos sin respaldo independiente: surge de sistemas formalizados, auditables y certificados por terceros acreditados como G-Certi, que verifican la conformidad con normas internacionales.

Porque el riesgo real no es que alguien intente vulnerar nuestros sistemas: eso forma parte del escenario operativo actual. El verdadero riesgo es no poder responder con evidencia verificable cuando se nos pregunta qué hicimos para proteger la información que nos confiaron.

En este caso, la empresa afectada pudo activar protocolos y comunicar desde una estructura de ciberseguridad definida. Sin embargo, esa capacidad de respuesta aún no es la norma en muchas organizaciones de América Latina, que enfrentan una presión creciente para demostrar control. Hoy esa demostración, lejos de ser un requisito técnico, se convirtió en un activo estratégico indispensable para sostener la confianza, la reputación y la continuidad del negocio.

Continuar Leyendo

Ciencia y Tecnología

Caída global de Cloudflare: X y portales de noticias fuera de servicio

Una falla en Cloudflare provocó un apagón masivo en internet. Usuarios reportan problemas en X y webs de medios. La empresa investiga el incidente.

Avatar

Publicado

el

Decenas de servicios digitales sufrieron interrupciones a nivel mundial por fallos en la red de Cloudflare, lo que dejó sin acceso a millones de usuarios. Según informó la propia empresa, se está investigando una anomalía que impide el funcionamiento adecuado de aplicaciones y sitios, asegurando que “los consumidores se pueden encontrar con errores” en sitios web.

Este martes 18 de noviembre, usuarios comenzaron a notar que X, anteriormente conocida como Twitter, era inaccesible, impidiendo la visualización de publicaciones en todo el mundo.

No solo la red social de Elon Musk resultó afectada: otras aplicaciones como Letterboxd, la propia Downdetector (cuya función es detectar caídas de servicios) y varios servicios internos de Cloudflare experimentaron bloqueos, impidiendo el acceso a usuarios.

La situación se agravó cuando usuarios de ChatGPT informaron de dificultades para utilizar la herramienta de inteligencia artificial, vinculando también la incidencia con los problemas de Cloudflare. En paralelo, los videojuegos también se han visto afectados: League of Legends registró numerosos fallos de conexión, y con ello, la imposibilidad de que muchos jugadores accedieran a sus partidas.

Usuarios de X, ChatGPT y League of Legends reportaron interrupciones masivas, con problemas de acceso y fallos en la carga de contenido.

Qué está pasando con Cloudflare

El primer aviso surgió cuando usuarios de X empezaron a reportar problemas de acceso, en especial para utilizar la aplicación en su versión de escritorio. En muchos casos, las publicaciones no cargaban, resultaba imposible actualizar el contenido y los elementos multimedia, como vídeos e imágenes, dejaron de estar disponibles.

Mientras tanto, herramientas especializadas como Downdetector reportaban el aumento incidencias registradas, aunque luego esta misma plataforma presentó fallas y ha tenido interrupciones en sus servicios.

“Cloudflare ha confirmado que es consciente, y que estaba investigando, un problema que afecta a ‘varios consumidores’ y que puede afectar al funcionamiento normal de varias páginas web y aplicaciones”, informó en un comunicado la compañía.

Inicialmente, el fallo parecía limitarse al soporte técnico, pero la complejidad del problema se hizo más grande con el paso de los minutos.

Las interrupciones también se reportaron en otros servicios populares como Letterboxd, plataformas basadas en inteligencia artificial como ChatGPT, y una variedad de medios de comunicación, como Forocoches, Resetera y el agregador de noticias Menéame, que mostró un “error de servidor interno” vinculado explícitamente a la falla de la red de Cloudflare.

En cuanto a videojuegos, se documentaron errores severos en la conectividad de League of Legends. Múltiples jugadores experimentaron interrupciones que les impidieron iniciar partidas, dejando evidente que se trataba de un fallo global.

Por qué Cloudflare está presentado fallas globales

Pese al alcance global del incidente, la causa original aún no ha sido clara en las primeras horas. Las primeras informaciones apuntaron a un fallo durante tareas de mantenimiento programado por Cloudflare, aunque la empresa no dio los detalles exactos.

“Cloudflare había programado un mantenimiento durante el día de hoy en diferentes áreas del mundo, pero sus servidores parecen no haber respondido bien a dichas tareas”, reportó ADSLZone. Lo que indicaría que se trata de una combinación de factores, en los que la empresa está trabajando para resolver.

La incertidumbre se ha agravado porque varias páginas especializadas en detectar caídas, como Downdetector y Down for Everyone or Just Me, también sufrieron incidentes por la dependencia de la infraestructura de Cloudflare. Así, comprobar el estado real de muchos servicios es aún más difícil y, ante la interrupción de los servicios, se hace más complicado confiar en los datos reportados por estas plataformas.

Ante estos errores, lo único que pueden hacer los usuarios es esperar a que la situación se normalice y puedan ingresar a sus cuentas, ya que es una falla en la que los clientes no pueden hacer nada, solo tener paciencia y estar pendientes de la recuperación de los servicios.

Continuar Leyendo

Ciencia y Tecnología

El partido de Zárate será el primero en tener a la IA como funcionaria

El municipio bonaerense designó a una Inteligencia Artificial como Directora General de Atención al Vecino, cargo con facultades para firmar resoluciones administrativas y tramitar expedientes.

Avatar

Publicado

el

El municipio bonaerense de Zárate incorpora la tecnología al designar a una Inteligencia Artificial como funcionaria pública. El nombramiento convierte a Zárate en la primera ciudad de Argentina que integra un sistema de IA en su estructura orgánica estatal.

«ZARA no reemplaza a los trabajadores municipales, los potencia,» afirmó Matzkin, al mismo tiempo destacó que la herramienta permitirá una atención más eficiente, constante y accesible, sin comprometer la calidad del servicio.

Eficiencia, acceso y extensión del Estado

La implementación de ZARA atiende a varias necesidades clave de la gestión pública. La IA funcionará las 24 horas del día, los 7 días de la semana, lo que extiende la capacidad de atención del Estado sin incurrir en mayores gastos.

ZARA brindará respuestas personalizadas y derivará consultas a las áreas correspondientes cuando sea necesario. Los trámites que la IA permitirá realizar incluyen reclamos, solicitudes de turnos y consultas de forma inmediata. Desde el punto de vista del ciudadano, estos asistentes reducen viajes, tiempos y barreras de acceso.

El municipio espera que la medida mejore la escala de atención y haga más eficiente la administración y el gasto municipal. Matzkin refuerza la apuesta a la tecnología: «ZARA trabaja como un funcionario municipal no humano con rango de director general. Confiamos en esta tecnología para mejorar cada ámbito de la gestión y de nuestra ciudad».

La Licitación y el Objetivo Mayor: Ser el Hub de IA

El municipio concretó esta semana la firma del Decreto que aprueba el Pliego de Bases y Condiciones. Este documento servirá para convocar a una licitación privada que seleccionará a la empresa encargada de desarrollar e implementar el chatbot.

El proceso de licitación se abrirá el 26 de noviembre de 2025 y dispone de un presupuesto oficial de 75 millones de pesos. Una Comisión de Pre-adjudicación, compuesta por el Secretario de Producción, la Subsecretaria de Innovación y Accesibilidad Digital, y la Directora de Compras, evaluará las propuestas.

La designación de ZARA solo representa un paso en una estrategia más ambiciosa: convertir a Zárate en el hub de IA de Argentina. Para lograrlo, el intendente Matzkin impulsó beneficios fiscales sin precedentes.

El municipio decidió otorgar 15 años de exención tributaria a las empresas de Inteligencia Artificial y startups que se instalen en la zona. Este beneficio no solo aplica a compañías de software, sino también a cualquier rama productiva cuya mayor parte del proceso dependa de la IA. La iniciativa sienta un precedente para la transformación industrial en el país.

Zárate reafirma así su compromiso con la innovación y la accesibilidad digital. El municipio se consolida como un actor clave en el desarrollo de ciudades más inteligentes, inclusivas y transparentes.

Continuar Leyendo
Publicidad

Facebook