为了防止有害输出,AI研究团队开发了监控大型语言模型的工具
据Cointelegraph报道,来自人工智能公司AutoGPT、东北大学和微软研究院的研究团队开发了一种监控大型语言模型(LLMs)的工具,以防止潜在的有害输出并阻止其执行。研究表明,该代理足够灵活,可以监控现有的LLMs,并在有害输出(...
据Cointelegraph报道,来自人工智能公司AutoGPT、东北大学和微软研究院的研究团队开发了一种监控大型语言模型(LLMs)的工具,以防止潜在的有害输出并阻止其执行。研究表明,该代理足够灵活,可以监控现有的LLMs,并在有害输出(...