OpenAI联合创始人推出安全超级智能公司,专注AI安全

OpenAI联合创始人推出安全超级智能公司,专注AI安全

作者
Yulia Petrovich
3 分钟阅读

伊利亚·苏茨克维创立安全超级智能公司,专注AI安全

伊利亚·苏茨克维,OpenAI的联合创始人及前首席科学家,现已启动新项目——安全超级智能公司(SSI)。该初创公司的主要目标是开发一种既安全又强大的AI系统,专注于AI安全,不受任何外部压力或商业利益的影响。

SSI的商业模式独特,强调保护安全、保障和进步的持续性,避免短期商业影响,从而促进稳定而持续的发展。苏茨克维与联合创始人丹尼尔·格罗斯(曾任职于苹果公司)和丹尼尔·利维(有OpenAI背景)合作。

与OpenAI不同,后者正与苹果和微软等科技巨头结盟,SSI则坚定不移地致力于追求安全超级智能,直到实现主要目标前不分散其努力。

要点

  • 伊利亚·苏茨克维创立安全超级智能公司(SSI),优先考虑AI安全。
  • SSI旨在开发一种安全且强大的AI系统,避免商业压力。
  • 由前苹果和OpenAI的AI负责人共同创立,专注于AI安全。
  • SSI的商业模式确保免受短期商业压力的影响。
  • 该初创公司的首个产品是安全超级智能,没有其他项目计划。

分析

伊利亚·苏茨克维成立安全超级智能公司(SSI),针对OpenAI因商业利益而牺牲的AI安全问题。SSI专注于创建不受外部影响的AI系统,有可能革新AI安全协议的进展。这一转变可能促使其他AI实体更广泛地优先考虑安全,进而影响全球AI政策和伦理。虽然SSI目前的单一焦点可能最初限制其市场拓展,但从长远来看,它可能为负责任的AI开发树立新标准,吸引寻求道德AI解决方案的投资者和合作伙伴。

你知道吗?

  • 安全超级智能公司(SSI):由伊利亚·苏茨克维创立的新AI公司,致力于开发安全且强大的AI系统,优先考虑AI安全而非商业利益,并使其开发免受市场短期压力的影响。
  • 伊利亚·苏茨克维:以其对AI研究的重大贡献而闻名,他离开OpenAI创办SSI,表明他致力于解决与高级AI系统相关的安全问题。
  • AI安全:AI研究的一个关键方面,涉及创建强大AI系统的伦理、道德和实际影响,重点是开发确保安全和负责任的AI操作的协议和机制,同时减轻滥用或意外后果的风险。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯