El CEO de Anthropic, una de las startups más prometedoras de la industria de la inteligencia artificial, lanzó una idea al aire para saber cuál era la recepción general de la misma: permitir a la IA decidir si quería realizar una tarea o no. Aunque muchos expertos señalaron que esta idea va ligada a la creencia de que la tecnología es capaz de desarrollar emociones, otros tantos indicaron que podría sentar un precedente peligroso. Sin embargo, para sorpresa de muchos, un asistente de IA no solo se negó a generar código, sino que sugirió al usuario que le dio la orden que aprenda a programar.
Como señala Ars Technica, Cursor (un asistente de IA) desobedeció una orden muy básica. Así, este comportamiento refleja una tendencia que se ha documentado en varias plataformas de IA generativa, dado que diferentes modelos se muestran reacios a realizar determinadas tareas o proporcionan resultados simplificados. En 2023, algunos usuarios de ChatGPT notaron que el modelo se volvió más reacio a realizar tareas y, desde entonces, una teoría conocida como «hipótesis del parón invernal» sigue ganando enteros.
La negativa de Cursor sienta un precedente
OpenAI ya reconoció en el pasado este problema y, además, indicó que no era intencional, dado que el comportamiento del modelo es impredecible. No obstante, están trabajando en una actualización para dar carpetazo a estos errores. Así, aunque la inteligencia artificial no tiene consciencia, puede llegar a rechazar tareas al imitar el comportamiento humano a la hora de negarse a realizar un trabajo. De hecho, el caso de Cursor recuerda al de sitios como Stack Overflow, un portal en el que se alienta a los novatos a resolver problemas por sí mismos en lugar de simplemente recibir código.
Sea como fuere, las IA como Cursor u otros grandes modelos se entrenan con grandes bases de datos que incluyen discusiones de plataformas como GitHub o Stack Overflow. De esta forma, no solo aprenden la sintaxis, sino también las normas culturales y los estilos de comunicación de estas comunidades. Por ese motivo, no resulta sorprendente que la IA lleve a cabo este tipo de acciones, ya que tiende a imitar todo lo relacionado con los humanos. Y, por el momento, OpenAI, Cursor y otras compañías afectadas ya trabajan en la forma de solventar todos los casos similares.
Imagen principal de 3DJuegos
–
La noticia
«Aprende a programar»: una IA se rebela al desobedecer una orden básica y profundiza en el nuevo problema del sector tecnológico
fue publicada originalmente en
3DJuegos
por
Abelardo González
.
Deja un comentario