25/08/2024@13:00:00
Un reciente estudio realizado por Kaspersky ha puesto de manifiesto un aumento en la técnica de inyección indirecta de prompts, que son frases utilizadas para iniciar conversaciones con bots. Esta técnica se emplea para manipular los resultados de modelos de lenguaje grande, como ChatGPT y otros chatbots impulsados por inteligencia artificial. Aunque hasta ahora no se han reportado incidentes graves de acciones destructivas por parte de estos chatbots, el riesgo de un uso indebido sigue presente.