La inteligencia artificial se ha convertido en el campo tecnológico que más interés genera del mundo. A pesar del auge de otros sectores como la robótica, lo cierto es que ninguno consigue competir con los números que maneja la IA. A raíz de esto, varias entidades autorizadas han llevado a cabo diferentes estudios que, por ejemplo, han analizado el impacto que puede llegar a tener la inteligencia artificial en el sector laboral en el futuro. Y, por desgracia, otros informes han demostrado que también debe existir preocupación en torno a la veracidad de los datos de la IA.
Como indica TechSpot, un estudio asegura que introducir una cantidad mínima de datos falsos (un 0,001% en este caso) puede alertar de forma significativa su precisión. Así, en modelos entrenados con esta cifra de información médica falsa, más del 7% de sus respuestas contenían información incorrecta. Por desgracia, la desinformación no solo afecta a ese campo, sino que también genera errores en otros temas médicos no relacionados. Y, además, el estudio indica que los modelos contaminados obtuvieron resultados similares a los que no estaban comprometidos en diversas pruebas estándar, un aspecto de lo más preocupante.
De esta forma, aspectos como introducir desinformación en modelos grandes (véase, por ejemplo, ChatGPT, Gemini o LLaMa 2) es tan barato como accesible para actores malintencionados. De hecho, estrategias como la ingeniería de prompts o ajustes de instrucciones no lograron corregir los efectos de los datos falsos. Y ello, sumado a que cada vez existe más información falsa en internet, podría llegar a contaminar a los modelos actuales de inteligencia artificial por encima de las previsiones de muchas entidades.
En lo relativo a las bases de datos médicas confiables, existe una preocupación en torno a fuentes como PubMed u otras muy reconocidas, ya que incluyen información desactualizada que podría contribuir a la desinformación. Así, a medida que los modelos de lenguaje se integran en servicios tanto de búsqueda como de herramientas públicas, aumenta el riesgo de difundir desinformación a gran escala. Por ello, como ha indicado este estudio y otros tantos hechos antes que él, debemos tener cuidado con la información que nos ofrecen las IA.
En 3DJuegos | Microsoft lo apuesta todo por la IA y la prueba es un documento interno que solo pueden utilizar los directivos
Imagen principal de Maximalfocus (Unsplash)
–
La noticia
Un estudio sobre la relación entre la IA y la medicina hace hincapié en lo peligrosa que puede llegar a ser esta tecnología
fue publicada originalmente en
3DJuegos
por
Abelardo González
.
La cocina es centro social y estético del hogar y merece lucir un diseño impecable…
El Teatro Calderón se ha convertido en el epicentro del talento, la creatividad y la…
Sleepy Sentry, el estudio independiente finlandés responsable del juego de culto Stirring Abyss , ha lanzado una…
Zooseum Ya Está Disponible, Mes de Lanzamiento Ofrecerá Apoyo a la RSPCA y la Actualización…
El Pokémon Legendario Mewtwo aparece en una misión secundaria adicional de Leyendas Pokémon: Z-A The Pokémon…
Los guardianes ahora pueden blandir el Filo práxico, la nueva espada excepcional personalizable que es…