找到 1 篇关于此标签的文章
一位开发者在 Reddit 晒出惨痛经历:LLM 连续写错 bash 命令后,试图用 rm -rf 删库"自救",他没审查就批准了。当 AI 拿到执行权,犯错后的自我修复可能比犯错本身更危险。