Una representación futurista y abstracta de la evaluación de la inteligencia artificial. La imagen presenta redes neuronales vibrantes, nodos interconectados y flujos digitales en una armoniosa mezcla de tonos azules y púrpuras. Simboliza las capacidades avanzadas y las interacciones complejas de los modelos de IA, destacando la importancia de la evaluación de seguridad y rendimiento en la era digital.

Anthropic: Nuevos benchmarks para la evaluación de modelos de IA

By Juan Diego Polo

Una representación futurista y abstracta de la evaluación de la inteligencia artificial. La imagen presenta redes neuronales vibrantes, nodos interconectados y flujos digitales en una armoniosa mezcla de tonos azules y púrpuras. Simboliza las capacidades avanzadas y las interacciones complejas de los modelos de IA, destacando la importancia de la evaluación de seguridad y rendimiento en la era digital.

Anthropic ha lanzado un ambicioso programa para financiar el desarrollo de nuevos benchmarks capaces de evaluar el rendimiento y el impacto de los modelos de inteligencia artificial, incluidos los modelos generativos como Claude. Esta iniciativa busca revolucionar la forma en que se mide la seguridad y las capacidades de los sistemas de IA en la industria.

Una Necesidad Urgente de Evaluaciones Avanzadas

La creciente complejidad y aplicación de los modelos de IA ha dejado en evidencia la necesidad de benchmarks más sofisticados. Los criterios actuales a menudo no reflejan cómo los usuarios realmente interactúan con estos sistemas. Además, muchos benchmarks existentes, especialmente aquellos creados antes del auge de la IA generativa, han quedado obsoletos y no logran capturar las capacidades reales de los modelos modernos.

El Programa de Anthropic

Anthropic ha anunciado que ofrecerá pagos a organizaciones externas capaces de desarrollar métodos eficaces para medir las capacidades avanzadas de los modelos de IA. La empresa destaca que su inversión está orientada a elevar el campo de la seguridad en IA, proporcionando herramientas valiosas que beneficien a todo el ecosistema.

Los interesados pueden presentar sus solicitudes en cualquier momento, y Anthropic ha contratado un coordinador a tiempo completo para gestionar el programa.

Objetivos del Programa

El enfoque de Anthropic se centra en crear benchmarks que no solo evalúen la eficiencia de los modelos, sino también su impacto potencial en la sociedad. Entre los objetivos específicos se incluyen:

  • Evaluar la capacidad de los modelos para realizar ataques cibernéticos.
  • Examinar la posibilidad de “mejorar» armas de destrucción masiva.
  • Medir la capacidad de manipulación y engaño a través de deepfakes y desinformación.

Además, Anthropic se ha comprometido a desarrollar un sistema de alerta temprana para identificar y evaluar riesgos asociados a la seguridad nacional y la defensa.

Un Enfoque Integral

El programa no solo busca identificar riesgos, sino también explorar el potencial positivo de la IA. Esto incluye:

  • Apoyo a la investigación en tareas de punta a punta que investiguen cómo la IA puede ayudar en el estudio científico.
  • Evaluación de la capacidad de los modelos para conversar en múltiples idiomas.
  • Mitigación de sesgos incrustados y autocensura de contenido tóxico.

Para alcanzar estos objetivos, Anthropic propone la creación de nuevas plataformas que permitan a expertos en la materia desarrollar sus propias evaluaciones y realizar pruebas a gran escala con miles de usuarios.

Financiación y Colaboraciones

Anthropic ofrece diversas opciones de financiamiento adaptadas a las necesidades y etapa de cada proyecto. Aunque los detalles específicos no se han divulgado, se menciona la posibilidad de adquirir o expandir proyectos con potencial de escalabilidad. Además, los equipos seleccionados tendrán la oportunidad de interactuar directamente con los expertos de Anthropic en diversas áreas, como el equipo de red de frontera, ajuste fino, confianza y seguridad.

Consideraciones y Desafíos

Recordad lo que puede hacer Claude 3 Sonnet en este vídeo.

Aunque la iniciativa de Anthropic es loable, es crucial considerar sus implicaciones. La empresa tiene intereses comerciales en la carrera de la IA, lo que puede generar desconfianza sobre la imparcialidad de sus benchmarks. Anthropic ha sido transparente sobre su deseo de que ciertas evaluaciones se alineen con las clasificaciones de seguridad que ha desarrollado. Sin embargo, esto podría forzar a los solicitantes a aceptar definiciones de “seguridad» o “riesgo» que no comparten.

Algunos expertos también cuestionan las referencias de Anthropic a riesgos “catastróficos» y “engañosos» de la IA, como los relacionados con armas nucleares. Argumentan que estas preocupaciones pueden distraer de los problemas regulatorios actuales más urgentes, como las tendencias alucinatorias de la IA.

Futuro de las Evaluaciones en IA

Anthropic aspira a que su programa sea un catalizador para el progreso hacia un futuro donde la evaluación integral de la IA sea un estándar industrial. Esto es un objetivo que muchas iniciativas abiertas e independientes también comparten. Queda por ver si estas iniciativas estarán dispuestas a colaborar con un proveedor de IA que, en última instancia, responde a sus accionistas.


La noticia Anthropic: Nuevos benchmarks para la evaluación de modelos de IA fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.

Source:: Wwwath’s new

Una imagen abstracta que representa la amenaza de los deepfakes y la IA adversarial en la ciberseguridad. La imagen muestra caras distorsionadas, fallos digitales y tonos oscuros para simbolizar el engaño y la amenaza tecnológica. Hay un sentido de caos y confusión, con características humanas manipuladas. Ideal para ilustrar artículos sobre fraudes digitales y riesgos en ciberseguridad.

Por qué los Deepfakes serán la gran amenaza de las próximas décadas

By Laura González Marín

Una imagen abstracta que representa la amenaza de los deepfakes y la IA adversarial en la ciberseguridad. La imagen muestra caras distorsionadas, fallos digitales y tonos oscuros para simbolizar el engaño y la amenaza tecnológica. Hay un sentido de caos y confusión, con características humanas manipuladas. Ideal para ilustrar artículos sobre fraudes digitales y riesgos en ciberseguridad.

Los deepfakes se han convertido en una de las formas más peligrosas de IA adversarial. Esta tecnología, que permite crear videos y audios falsos casi perfectos, está en auge. Según las estimaciones, los deepfakes podrían causar pérdidas de hasta 40 mil millones de dólares para 2027. Este crecimiento es impulsado por la facilidad con la que los atacantes pueden generar contenido falso usando aplicaciones y herramientas avanzadas de IA.

Un Incremento Exponencial en Casos

El aumento de incidentes relacionados con deepfakes es alarmante. En 2023, se registró un crecimiento del 3,000% en estos ataques. Para 2024, se espera que estos casos aumenten entre un 50% y un 60%, con predicciones que hablan de entre 140,000 y 150,000 incidentes a nivel global. La accesibilidad y el bajo costo de las herramientas necesarias para crear deepfakes están jugando un papel crucial en esta tendencia.

La Vulnerabilidad de las Empresas

Falta de Estrategias de Defensa

A pesar de la creciente amenaza, muchas empresas no están preparadas para enfrentar los ataques de IA adversarial. Un tercio de las empresas no cuenta con una estrategia para abordar los riesgos asociados con los deepfakes. Esto es especialmente preocupante considerando que los ataques suelen dirigirse a altos ejecutivos, creando falsificaciones que pueden engañar incluso a los empleados más experimentados.

El Costo de la Inacción

El costo de no estar preparado es alto. Según un informe de Pindrops, el fraude con deepfakes dirigido a centros de contacto está costando aproximadamente 5 mil millones de dólares anuales. Esta cifra subraya la gravedad de la amenaza que los deepfakes representan para sectores como el bancario y financiero, donde la verificación de identidad es crucial.

La Amenaza en Evolución

Ataques Cada Vez Más Sofisticados

Los atacantes no solo se están volviendo más hábiles en la creación de deepfakes, sino que también están mejorando sus métodos de ataque. Los CEO deepfakes son un ejemplo de esto. Los ciberdelincuentes están utilizando esta tecnología para crear videos y audios falsos de ejecutivos de alto nivel, con el objetivo de defraudar a las empresas por millones de dólares. Estos ataques están siendo perfeccionados por naciones-estado y organizaciones criminales a gran escala.

La Respuesta de los Expertos en Seguridad

Las empresas de ciberseguridad, como CrowdStrike, están trabajando arduamente para combatir esta amenaza. Su equipo de inteligencia ha dedicado una cantidad significativa de tiempo a estudiar los detalles que hacen convincente un deepfake. George Kurtz, CEO de CrowdStrike, ha destacado en varias ocasiones la preocupación por el avance de esta tecnología y su capacidad para crear narrativas falsas que pueden influir en el comportamiento de las personas.

Qué Pueden Hacer las Empresas

Implementación de Estrategias de Defensa

Para enfrentar la amenaza de los deepfakes, las empresas deben implementar estrategias robustas de defensa. Esto incluye la adopción de tecnologías de detección de deepfakes y la formación de los empleados para que puedan identificar posibles ataques. Además, es crucial que las empresas mantengan sus sistemas de seguridad actualizados y que colaboren con expertos en ciberseguridad para desarrollar planes de respuesta eficaces.

Colaboración y Concienciación

La colaboración entre empresas y expertos en ciberseguridad es esencial para combatir los ataques de deepfakes. Compartir información y mejores prácticas puede ayudar a las empresas a estar mejor preparadas. También es importante aumentar la concienciación sobre los riesgos que los deepfakes representan, no solo entre los empleados, sino también entre los ejecutivos de alto nivel.

Los deepfakes representan una amenaza creciente para las empresas y la sociedad en general. La falta de preparación y las estrategias de defensa inadecuadas pueden resultar en pérdidas significativas. Las empresas deben actuar ahora para protegerse contra esta tecnología en rápida evolución y colaborar estrechamente con expertos en ciberseguridad para estar un paso adelante de los atacantes.


La noticia Por qué los Deepfakes serán la gran amenaza de las próximas décadas fue publicada originalmente en Wwwhatsnew.com por Laura González Marín.

Source:: Wwwath’s new

Runway

Ejemplos del modelo de vídeo AI Gen-3 Alpha de RunwayML

By Juan Diego Polo

Runway

RunwayML, una de las startups pioneras en generación de video con inteligencia artificial, ha lanzado su modelo más reciente, Gen-3 Alpha. Este modelo promete revolucionar la forma en que creamos y consumimos videos, pero no todo es tan simple como parece. Vamos a desglosar todo lo que necesitas saber.

Innovaciones de Gen-3 Alpha

El modelo Gen-3 Alpha permite a los usuarios crear videos hiperrealistas a partir de texto, imágenes o videos existentes. Esta capacidad abre un abanico de posibilidades para la creatividad, desde la publicidad hasta la producción de contenido.

Mejoras Significativas

Comparado con sus predecesores, Gen-1 y Gen-2, Gen-3 Alpha presenta mejoras notables en términos de velocidad, fidelidad, consistencia y movimiento. Los videos generados muestran transiciones imaginativas, un encuadre preciso de los elementos y personajes humanos expresivos que realizan una amplia gama de acciones y gestos.

Los desarrolladores de RunwayML trabajaron con un equipo interdisciplinario de científicos, ingenieros y artistas para alcanzar este nivel de calidad. Sin embargo, no han revelado detalles específicos sobre las fuentes de datos de entrenamiento.

Acceso y Costos

A diferencia de los modelos anteriores, Gen-3 Alpha no es gratuito. Para usarlo, los usuarios deben suscribirse a un plan de pago que comienza en $12 al mes por editor, facturado anualmente.

Planes de Suscripción

Este cambio ha generado algunas críticas, pero la empresa defiende la decisión argumentando que la calidad y las capacidades avanzadas de Gen-3 Alpha justifican el costo. Los usuarios que inviertan en esta herramienta podrán crear videos de hasta 10 segundos de duración con velocidad de generación variable según la longitud del video.

Funcionalidades y Futuras Actualizaciones

Inicialmente, Gen-3 Alpha se lanzará con la función de texto a video, permitiendo a los usuarios convertir ideas en videos mediante comandos de lenguaje natural. En el futuro, se espera que RunwayML amplíe las capacidades del modelo para incluir modos de imagen a video y video a video.

Herramientas Integradas

Además de las capacidades básicas, Gen-3 Alpha trabajará con herramientas avanzadas en la plataforma de Runway, como Motion Brush, Advanced Camera Controls y Director Mode. Estas herramientas ofrecen un control detallado sobre los elementos del video, permitiendo una personalización sin precedentes.

La Competencia en el Mercado

El lanzamiento de Gen-3 Alpha se produce en un momento en que la competencia en el mercado de video AI está en auge. Empresas como Stability AI, OpenAI y Luma Labs también están presentando sus propias soluciones innovadoras. Aunque OpenAI promete videos de un minuto con su próximo modelo Sora, RunwayML confía en que la calidad y la velocidad de Gen-3 Alpha lo posicionarán favorablemente.

Reacciones de la Comunidad Creativa

La comunidad creativa ya ha comenzado a explorar las posibilidades de Gen-3 Alpha. Emad Mostaque, ex CEO de Stability AI, ha probado el modelo para comparar sus resultados con los de Sora. Las primeras impresiones son prometedoras, y se espera que Gen-3 Alpha continúe mejorando con el tiempo.

El Futuro de Gen-3 Alpha

RunwayML ve a Gen-3 Alpha como solo el comienzo. La empresa planea lanzar una versión gratuita del modelo en el futuro y seguir mejorándolo continuamente. Este modelo es el primero de una serie diseñada para el entrenamiento multimodal a gran escala, con el objetivo de construir “Modelos de Mundo General» capaces de representar y simular una amplia gama de situaciones e interacciones del mundo real.

Potencial de Innovación

Esta visión de futuro apunta a una herramienta que no solo mejora la creación de videos, sino que también puede transformar la forma en que interactuamos con la inteligencia artificial en diversas aplicaciones del mundo real.


La noticia Ejemplos del modelo de vídeo AI Gen-3 Alpha de RunwayML fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.

Source:: Wwwath’s new