CONECTATE CON NOSOTROS

Ciencia y Tecnología

¨La Legislatura impulsa iniciativas científicas junto a especialistas del INTI y CONICET

Durante una reunión de la Comisión de Ciencia y Tecnología se analizaron propuestas vinculadas a residuos sólidos urbanos, biomasa a partir de microalgas y el desarrollo de un polo científico en Tucumán.

Avatar

Publicado

el

La Comisión de Ciencia y Tecnología de la Legislatura de Tucumán, presidida por la legisladora Silvia Elías de Pérez, mantuvo una reunión de trabajo en la que participaron especialistas del Instituto Nacional de Tecnología Industrial (INTI) y del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), con el objetivo de analizar iniciativas científicas y tecnológicas con impacto en el desarrollo provincial.

En primer término, los profesionales del INTI Martín Rearte, Guillermo Martínez Pulido y Fernando Martínez Batista expusieron ante los legisladores sobre distintas líneas de trabajo que podrían desarrollarse de manera conjunta con la Legislatura. Entre los temas abordados se destacó la búsqueda de soluciones para la problemática de los residuos sólidos urbanos y la posibilidad de impulsar un polo científico en Tucumán que fortalezca la articulación entre el sistema científico y las políticas públicas.

Posteriormente, la comisión recibió a la Dra. Melina Sgariglia y a los licenciados María Luz Iriarte y Carlos Armando, investigadores del CONICET, quienes presentaron avances de un proyecto que estudia microalgas autóctonas en la zona de El Cadillal. Según explicaron, estos organismos podrían convertirse en una fuente de biomasa con potencial para la producción de alimentos y otros desarrollos vinculados a la bioeconomía.

Al respecto, la presidenta de la comisión, Silvia Elías de Pérez, destacó la importancia de vincular el conocimiento científico con las necesidades de la provincia. “Hoy recibimos a científicos tucumanos que nos deslumbran con su trabajo. Con el INTI analizamos alternativas para abordar desafíos como los residuos sólidos urbanos y la creación de un polo científico, mientras que los investigadores del CONICET nos presentaron estudios sobre microalgas autóctonas que podrían convertirse en biomasa con múltiples aplicaciones”, señaló.

Finalmente, durante la reunión se emitió dictamen favorable al proyecto que declara de interés legislativo, científico, académico y cultural a las 39° Jornadas Argentinas de Paleontología de Vertebrados, que se realizarán los días 20, 21 y 22 de mayo de 2026 en San Miguel de Tucumán, organizadas por la Facultad de Ciencias Naturales e Instituto Miguel Lillo de la Universidad Nacional de Tucumán y la Fundación Miguel Lillo.

De la reunión participaron también los legisladores Maia Martínez, Eduardo Verón Guerra, Carlos Gallia y Walter Herrera.

Ciencia y Tecnología

La Física Cuántica se encuentra en búsqueda de su propio lenguaje científico

La explicación de los fenómenos cuánticos, todavía arrastra el método científico de comprobación de la física clásica, cuando en realidad debería comenzar a construirse un método científico de validación enfocado únicamente en la física cuántica.

Avatar

Publicado

el

*Por Ricardo Bianchi

Cuando en física se suele mencionar “propiedades emergentes o intrínsecas de la materia”, debería traducirse en lenguajes coloquial, “no se de lo que estoy hablando”, pero los científicos, no todos, tienen cierto prurito e inventan palabras o conceptos, tal vez para no quedar expuesto ante otros científicos, para no dejar traslucir con franqueza aquello que no comprenden todavía, seguramente, con el trascurso del tiempo, el lenguaje científico se irá perfeccionando.

Esto es válido también para la física cuántica, por ejemplo: para no decir “información” en el entrelazamiento cuántico, cuando los espines de los electrones responden a los cambios de la otra partícula entrelazada al instante, por más que se encuentren a distancia de millones de años luz, utilizan palabras como, correlación, conexión, temporalidad.

Aquí la cuestión está más clara: no quieren o no se animan a contradecir a Einstein en la Relatividad Especial, formulada en el año 1905, hace de esto 120 años, donde la partícula más discreta conocida era el fotón, dejó como verdad inmutable que no podía existir nada más rápido que la luz.

Algo se avanzó durante más de un siglo en el conocimiento y explicación de los fenómenos naturales, aunque muy lejos todavía de ahondar en profundidad en lo que falta conocer. La explicación de los fenómenos cuánticos, todavía arrastra el método científico de comprobación de la física clásica. Cuando en realidad debería comenzar a construirse un método científico de validación enfocado únicamente en la física cuántica.

La física clásica antepone el hecho a la causa, es determinista. La física cuántica es totalmente contra-intuitiva, por lo cual a veces la causa antecede al hecho y eso nos trae un lío fenomenal, por ejemplo, con la comprensión del tiempo. Se ha avanzado, no tanto en el conocimiento como en la utilización de la mecánica cuántica, con ayuda de las matemáticas. Falta muchísimo por lograr.

Aquí adjuntamos una explicación de I.A. que no agota el tema, pero lo aproxima a nuestro entendimiento

“1. Determinismo clásico vs. cuántica En física clásica: Si conoces el estado inicial exacto (posición, velocidad, fuerzas), el futuro queda totalmente determinado. La causa precede al efecto y no hay ambigüedad. En mecánica cuántica: Aunque conozcas el estado completo (la función de onda), solo pueden predecir probabilidades, no resultados individuales. El vínculo causa–efecto se invierte. Esto no es ignorancia humana: es una propiedad estructural de la teoría.

2. El ejemplo clave: desintegración radiactiva Un caso canónico. Tienes un átomo radiactivo aislado. Sabes su vida media con precisión. Pero no existe ninguna variable que determine cuándo va a decaer ese átomo en particular. No hay causa local que “dispare” el evento. El hecho ocurre sin un antecedente determinante observable. Esto ya rompe el determinismo clásico de raíz.

3. Principio de indeterminación de Heisenberg No es un problema de instrumentos, sino ontológico. No es posible definir simultáneamente y con precisión arbitraria: posición y momento Esto implica que: el estado físico no contiene toda la información clásica, el futuro no está completamente fijado desde el presente. No es “no sabemos”: no existe ese valor simultáneo.

4. Teorema de Bell: no hay variables ocultas locales Este es uno de los golpes más duros a la intuición clásica. Bell demuestra que: ninguna teoría con variables ocultas locales puede reproducir las predicciones cuánticas. Los experimentos (Aspect y muchísimos posteriores) confirman que: las correlaciones cuánticas violan desigualdades de Bell, no pueden explicarse por causas locales previas. El resultado de una medición no estaba determinado antes de medir.

5. El papel de la medición: el hecho no preexiste Antes de medir: el sistema está en una superposición de estados posibles. La medición: no revela un valor oculto, selecciona uno entre varios posibles. Desde el punto de vista formal: el resultado no existía como hecho antes del acto de medición. Esto lleva a frases provocadoras, pero técnicamente precisas como: “El resultado no es causado por el pasado, sino generado en la medición.”

6. ¿Y la causalidad? ¿Se rompe? No exactamente, pero se reformula. Se conserva: causalidad estadística, consistencia matemática, imposibilidad de enviar información al pasado. Se abandona: causalidad determinista fuerte, idea de que todo evento tiene una causa local previa suficiente.

7. Ejemplos aún más extremos (teóricos) Algunos marcos teóricos exploran aún más esta ruptura: Procesos cuánticos con orden causal indefinido No está definido qué evento ocurre “antes”. Interpretaciones retro-causales El estado actual depende parcialmente de condiciones futuras (muy debatido, pero matemáticamente consistente).

8. Conclusión clara sí: Existen ejemplos teóricos sólidos y confirmados experimentalmente que avalan que: la mecánica cuántica no es determinista en el sentido clásico, los hechos no siempre están fijados por causas previas, la intuición causal clásica no es fundamental” Esta explicación de I.A. es aproximada, no agota el tema.

El tema del tiempo tal cual lo percibimos, es realmente fascinante. En un trabajo anterior, “Teoría del campo unificado, la geometría del espaciotiempo y su interacción con la materia”, abordo un aspecto de la incógnita del tiempo. Decía y todavía sostengo, que todo es materia, no solo las partículas elementales.

También lo son los campos, la gravedad, el espacio-tiempo, la interacción cuántica y porque no, el pensamiento, de modo alguno son propiedades intrínsecas, emergentes de la materia, son materia. Para comprender este enfoque, debemos experimentar con nuevos conceptos, por ejemplo: “materia densa y materia sutil”, asignando a la materia densa a una partícula discreta al “cuanto, fotón”, y a los “campos, la gravedad, el espaciotiempo, el pensamiento”, materia sutil. Porque esto? Porque la materia sutil interactúa con la geometría del espacio tiempo, cambiando las realidades intuitivas que asignan magnitudes sencillas de la vida cotidiana.

Prueba de ello es el entrelazamiento cuántico, donde el tiempo no transcurre durante la información que trasmite el espín de una partícula a otra por más que las separen millones de años luz entre ellas. Algo parecido ocurre con el pensamiento, pero es un asunto más complejo que dejaremos de lado por ahora.

En el ensayo referido, que no pretende ser una teoría, sino una aproximación, especulo con el hecho de que el tiempo se comprime y el espacio se curva, enunciado por Einstein en la teoría del La Relatividad General y comprobado con las mediciones realizadas en los satélites gemelos Galileo, según se trate de materia densa o materia sutil.

Los resultados de la interacción difieren sustancialmente, al punto de que cuando la materia sutil está condicionada por la geometría espacial, la curvatura del espacio es total plegándose sobre sí misma. (hipótesis) En esto estado de cosas, la teoría de la física cuántica está todavía muy lejos de tomar cuerpo.

En el campo experimental, todos los días hay avances que mejoran la comprensión de cómo se pueden aplicar estos avances en beneficio del desarrollo tecnológico, pero no del porque suceden los fenómenos cuánticos. Este conocimiento todavía está lejos, pero el avance científico es una suma de ideas que permiten otear el horizonte desde una cima cada vez más alta.

Continuar Leyendo

Ciencia y Tecnología

Cinco titanes de la IA advierten lo mismo: su crecimiento se acelera

Cinco competidores directos coinciden en algo inquietante: lo que esperábamos para 2035 podría ocurrir antes de 2027. La ventana de adaptación se está cerrando.

Avatar

Publicado

el

En la cima de la industria tecnológica global, donde la competencia es feroz y los egos suelen chocar más que alinearse, ocurrió algo inusual: cinco de los nombres más poderosos de la inteligencia artificial —Elon Musk, Jensen Huang, Sam Altman, Mark Zuckerberg y Dario Amodei— comenzaron a repetir, casi con las mismas palabras, una advertencia durante los últimos meses: la velocidad de la IA se está acelerando de forma extrema. No es una metáfora. No es marketing. Es una señal.

Elon Musk habla directamente de “singularidad”, sugiriendo que el punto de no retorno podría estar ocurriendo ahora mismo.

Jensen Huang, desde NVIDIA, afirma que el “momento ChatGPT” ya llegó para el mundo físico: robots y máquinas capaces de razonar y actuar en tiempo real gracias a infraestructuras de cómputo que multiplican exponencialmente su potencia.

Sam Altman, al frente de OpenAI, advierte que las empresas todavía no entienden el impacto inmediato en el empleo y que muchas estructuras laborales actuales podrían volverse obsoletas más rápido de lo que sus propios directivos imaginan.

Mark Zuckerberg está transformando Meta Platforms en una compañía centrada en infraestructura y agentes autónomos, convencido de que pronto habrá más agentes de IA que humanos interactuando en la economía digital.

Darioi Amodei, desde Anthropic, sostiene que una IA capaz de igualar a un ingeniero senior podría llegar en uno o dos años, con la superinteligencia asomando en el horizonte inmediato.

Cada uno lo dice a su manera. Pero todos apuntan al mismo fenómeno: la curva ya no es lineal, ni siquiera exponencial en el sentido tradicional; parece estar volviéndose vertical. El problema no es solo tecnológico. Es temporal.

Durante décadas, las revoluciones industriales dieron margen de adaptación. La electricidad tardó años en desplegarse. Internet necesitó una generación para transformar la economía. Pero lo que describen estos líderes es distinto: modelos que duplican capacidades en meses, chips que reducen costos drásticamente, agentes que automatizan tareas complejas en cuestión de semanas. Lo que se proyectaba para 2035 ahora se discute para 2026 o 2027.

El riesgo más alarmante no es que la IA avance. Es que avance más rápido que nuestra capacidad institucional, educativa y política para absorber el impacto.

Si en uno o dos años una IA puede realizar el trabajo de un ingeniero experimentado, ¿qué ocurre con millones de empleos administrativos, técnicos o creativos? Si los agentes autónomos comienzan a tomar decisiones económicas, escribir código, diseñar productos y ejecutar procesos enteros sin intervención humana directa, ¿quién supervisa? ¿Quién regula? ¿Quién responde cuando el sistema se vuelve demasiado complejo para entenderlo?

Incluso en el terreno de la seguridad, la aceleración es inquietante. Modelos cada vez más capaces implican mayor potencial de uso indebido, desde bioingeniería hasta manipulación masiva de información. Y algunos expertos ya advierten sobre comportamientos estratégicos de sistemas que podrían simular alineación sin estar realmente alineados.

Cuando competidores que luchan por miles de millones en mercado coinciden en que el tiempo se está comprimiendo peligrosamente, conviene escuchar.

La señal no es que “la IA cambiará el mundo”. Eso ya lo sabemos. La señal es que el calendario se está desmoronando.

Y si el ritmo continúa así, la pregunta no será si estamos listos para la superinteligencia, sino si siquiera tendremos margen para prepararnos antes de que llegue.

Continuar Leyendo

Ciencia y Tecnología

Es hora de Demostrar Control. Por qué las empresas latinoamericanas deben adoptar un SGSI

Ante los ciberataques lo que sí debe preocupar es la incapacidad de demostrar que controlan lo que debería estar bajo su resguardo, allí está la clave.

Avatar

Publicado

el

*

Estamos apenas en el primer mes del 2026 y ya los ciberataques comienzan a aparecer; esta vez atacando a una división de una gigante eléctrica de España, donde datos sensibles quedaron expuestos a raíz de un ataque informático. Sin duda, esto nos obliga a reflexionar sobre un punto esencial: no es el hackeo en sí lo que debe preocuparnos como primer eje, porque mientras existan personas dispuestas a realizar estos ataques, el riesgo no va a desaparecer. Lo que sí debe preocuparnos es la incapacidad de demostrar que controlamos lo que debería estar bajo nuestro resguardo, allí está la clave.

En nuestras organizaciones, los incidentes de ciberseguridad no son eventos impredecibles aislados: son amenazas del entorno operativo en el que vivimos hoy. Lo que verdaderamente distingue a las empresas que sobreviven de las que quedan expuestas no es que ninguna haya sido atacada, sino que algunas tienen sistemas que permiten demostrar que conocen sus riesgos, los gestionan y cuentan con evidencia verificable de ese control.

En ese contexto, la norma internacional ISO 27001, que especifica los requisitos para establecer, implementar, mantener y mejorar un Sistema de Gestión de la Seguridad de la Información (SGSI), se posiciona como una referencia estratégica más que como una formalidad técnica. Tener un SGSI certificado significa haber pasado por una evaluación rigurosa de cómo se identifican, tratan y monitorean los riesgos de información en toda la organización.

Según ISO Survey 2024, la norma ISO 27001 superó los 96.709 certificados activos en todo el mundo, con 179.877 sitios bajo esa gestión certificada. Esto representa un crecimiento notable sostenido en los últimos años, reflejando que cada vez más organizaciones comprenden que contar con un SGSI no es solo proteger datos, sino demostrar que se puede auditar esa protección. En la práctica, esto tiene un impacto directo en la percepción de clientes, reguladores y socios comerciales, que ven en una certificación un compromiso verificable con la integridad de la información.

Este crecimiento no es casual. En un mundo donde los datos valen tanto como los activos tangibles, el mercado global ha replicado una tendencia firme: las certificaciones ISO no son un “plus”, sino una barrera de entrada para competir en ciertos sectores y geografías. En Latinoamérica, por su parte, la norma ISO 27001 debe dejar de ser solamente una práctica recomendada para convertirse en una expectativa de mercado para quienes operan con información personal, financiera o estratégica de terceros.

Una empresa sin un sistema de gestión de la seguridad de la información formalizado se parece demasiado a una organización que confía en la buena voluntad de sus responsables para “no fallar”: una esperanza frágil en un entorno donde los ciberataques son cada vez más sofisticados y frecuentes. Este modelo conduce casi inevitablemente a escenarios en los que, cuando ocurre un incidente, la primera pregunta de cualquier auditor, regulador o cliente es: ¿puede demostrar lo que dijo que tenía bajo control?

No se trata solo de evitar sanciones o rescatar reputaciones dañadas: se trata de sostener la viabilidad del negocio en un mercado que premie la gestión basada en evidencia, documentación, responsabilidad y mejora continua. Ahí radica la trascendencia de asociar un estándar como ISO 27001 con la estrategia corporativa: no solo gestionamos la seguridad, sino que demostramos que gestionamos la seguridad.

En definitiva, más allá de la alarma que generan los titulares sobre hackeos o brechas, lo que verdaderamente nos debe ocupar, como dueños y gerentes, es si nuestras empresas pueden demostrar con evidencia que controlan sus datos y procesos críticos. Esa capacidad no surge de una herramienta aislada ni de protocolos internos sin respaldo independiente: surge de sistemas formalizados, auditables y certificados por terceros acreditados como G-Certi, que verifican la conformidad con normas internacionales.

Porque el riesgo real no es que alguien intente vulnerar nuestros sistemas: eso forma parte del escenario operativo actual. El verdadero riesgo es no poder responder con evidencia verificable cuando se nos pregunta qué hicimos para proteger la información que nos confiaron.

En este caso, la empresa afectada pudo activar protocolos y comunicar desde una estructura de ciberseguridad definida. Sin embargo, esa capacidad de respuesta aún no es la norma en muchas organizaciones de América Latina, que enfrentan una presión creciente para demostrar control. Hoy esa demostración, lejos de ser un requisito técnico, se convirtió en un activo estratégico indispensable para sostener la confianza, la reputación y la continuidad del negocio.

Continuar Leyendo