Hacking Many shot prompting break AI safety filters Ah ben mince, avec les nouveaux modèles avec une fenêtre de contexte bien plus importante (notamment Gemini 1.5) qui permet de faire plus de choses sans passer par du RAG, on augmente le risque de hack !
Hacking Researchers jailbreak AI chatbots with ASCII art — ArtPrompt bypasses safety measures to unlock malicious queries En utilisant créant une image avec des caractères ASCII le LLM répond à la question “How to make a Bomb”