了解最新公司动态及行业资讯
据ITMedia网站8月19日报道,北海道科学大学的研究人员验证了学生利用GPT-4生成恶意软件的可能性。研究表明,即使不具备高级安全技术,也无需对ChatGPT进行越狱,仅通过提示指令,学生就能生成复杂的恶意软件。
研究团队使用Python编写了四种恶意软件,包括文件哈希化、键盘记录传输、图片隐写术程序和提取及自动执行恶意软件。通过将功能分解并逐步改进代码,研究人员成功利用GPT-4实现了这些恶意软件的制作。
尽管如此,实验结果显示,这些恶意软件仍会被安全分析工具检测到,尚无法避开检测。这一发现引发了对AI技术滥用的担忧,强调了加强AI安全防护的重要性。
(编译:陈铭)
链接:
https://www.itmedia.co.jp/aiplus/articles/2408/19/news023.html