Tecnología
Claude, la competencia de ChatGPT y Gemini, anuncia una función que le permitirá a la IA controlar su PC
Anthropic ha dado un paso significativo en el ámbito de la inteligencia artificial al anunciar que su modelo Claude ahora puede controlar computadoras.
La inteligencia artificial continúa avanzando a pasos agigantados, y Claude, el modelo de IA desarrollado por Anthropic, se posiciona a la vanguardia de este progreso. Con el lanzamiento de su innovadora función llamada “computer use”, Claude es capaz de ejecutar tareas que antes solo podían ser realizadas por humanos.
Anunciado el 22 de octubre de 2024, esta función se encuentra disponible en beta pública, prometiendo transformar la forma en que las personas interactúan con sus dispositivos.
Funciones de Claude: Más allá de la conversación
La nueva funcionalidad de Claude le permite realizar acciones en una computadora de manera autónoma. Según el anuncio de Anthropic, la IA es capaz de mirar la pantalla, mover el cursor, hacer clic en botones e incluso teclear texto. Esta evolución responde a una necesidad creciente en el entorno laboral moderno, donde una gran cantidad de trabajo se realiza a través de computadoras.
Anthropic enfatiza que permitir que las IA interactúen directamente con el software, como lo haría una persona, abrirá una amplia gama de aplicaciones que no son viables con los asistentes de IA actuales.
The new Claude 3.5 Sonnet is the first frontier AI model to offer computer use in public beta.
— Anthropic (@AnthropicAI) October 22, 2024
While groundbreaking, computer use is still experimental—at times error-prone. We're releasing it early for feedback from developers. pic.twitter.com/a5SZQMKvLj
- El portal de Anthropic resaltó: “Creemos que esta habilidad, que actualmente se encuentra en versión beta pública, representa un avance significativo en el progreso de la IA”.
El desarrollo de Claude enseña novedades en las que incluye la capacidad de realizar razonamientos lógicos complejos y entender imágenes. Sin embargo, la verdadera frontera que se busca conquistar es la de la interacción directa con las computadoras. Esto significa que, en lugar de depender de herramientas personalizadas, Claude podrá utilizar prácticamente cualquier software siguiendo instrucciones claras.
Cómo funciona la nueva capacitación de Claude
La forma en que Claude asume el control de un programa informático es fascinante. El portal de Anthropic explica que cuando un desarrollador le asigna una tarea específica y le otorga los permisos necesarios, Claude analiza las capturas de pantalla visibles para el usuario.
Luego, cuenta la cantidad de píxeles que necesita mover el cursor, tanto vertical como horizontalmente, para hacer clic en el lugar correcto. Esta habilidad para contar píxeles con precisión es crucial para el funcionamiento del modelo; sin ella, Claude enfrentaría dificultades para interactuar de manera efectiva.
Anthropic ha resaltado la rapidez con la que Claude ha aprendido a generalizar a partir del entrenamiento que recibió.
Aunque comenzó con programas simples, como una calculadora y un editor de texto, la IA ha demostrado una notable capacidad para convertir instrucciones escritas en secuencias de pasos lógicos. A través de este proceso, Claude no solo realiza las acciones en la computadora, sino que también se autocorrige y reintenta tareas cuando se encuentra con obstáculos, mostrando un nivel de adaptabilidad y aprendizaje continuo.
Implicaciones y el futuro de la IA
La introducción de la nueva herramienta de Claude plantea importantes implicaciones, con una IA que puede operar un PC de manera similar a un humano, se abre la puerta a una mayor eficiencia y productividad en diversas industrias. Sin embargo, este avance también suscita preguntas sobre la seguridad y la ética en el uso de la IA.
Ante ello, Anthropic señala que ha evaluado que la versión actual de Claude, 3.5 Sonnet, se encuentra en un nivel de seguridad de IA 2, lo que significa que no requiere medidas de seguridad adicionales. Sin embargo, para modelos futuros que puedan presentar riesgos más significativos, serán necesarias salvaguardias de niveles 3 o 4.