微软承诺 2029 年前将持续为 Win32 经典版 Outlook 提供支持
▲ 图源 微软官方新闻稿
不过对于 UWP 版邮件应用,微软计划在 2024 年 12 月 31 日停止其支持。届时用户将无法再从微软应用商店下载 UWP 版邮件客户端,已安装的也可能会被更新为“空壳版本(打开后显示应用已被停用,强制跳转到新版应用商店页面)”。 原文转自IT之家: https://www.ithome.com/欧洲议会通过《人工智能法案》:禁止人工智能操纵人类行为、利用人类弱点
- “对基本权利构成明显风险”的 AI 应用程序将被禁止,例如一些涉及生物识别数据处理的应用程序。
- 被视为“高风险”的 AI 系统,例如用于关键基础设施、教育、医疗保健、执法、边境管理等领域的人工智能系统,必须遵守严格的要求。
- 垃圾邮件过滤器等低风险服务将面临“最宽松”的监管(IT之家注:欧盟预计大多数服务都属于此类)。
Sora来了,会砸掉谁的饭碗?
OpenAI官网截图
输入寥寥数语便能生成效果炸裂的60秒视频!美国开放人工智能研究中心(OpenAI)推出的视频生成模型Sora近日震惊全球。
OpenAI推出ChatGPT才过去一年多,就再度扔出一枚重磅炸弹。“文生视频”AI模型Sora的惊艳之处在哪儿?对行业有何影响?存在哪些隐患?新华社记者为你解局——
Sora有何本领
Sora生成的多条短视频“大片”在全网刷屏,场景逼真丝滑、细节丰富。
这是OpenAI首次进军AI视频生成领域。据公司介绍,Sora使用Transformer架构,可根据文本指令创建现实且富有想象力的场景,生成多种风格、不同画幅、最长为一分钟的高清视频。
换句话说,给Sora一些提示语,它就能生产出一条高质量短视频。一起感受一下Sora的创作实力。
OpenAI官网发布的Sora生成视频图像显示,一辆SUV行驶在盘山公路上。
Sora还能够根据静态图像生成视频,扩展现有视频或填充缺失的帧。
OpenAI说,Sora能深刻地理解语言,不仅理解用户文本提示,还理解所述事物在物理世界中的存在方式。“我们正在教授人工智能理解和模拟运动中的物理世界,目标是训练模型帮助人们解决需要与现实世界交互的问题。”
不过,OpenAI官网晒出的视频作品是Sora创造的平均水准还是最高水准呢?
OpenAI承认,目前Sora生成视频中可能包含不合逻辑的图像,混淆左右等空间细节,难以准确模拟复杂场景的物理原理和因果关系实例等。例如,一个人可能咬了一口饼干,但饼干上没有咬痕。不过,随着算力增强、模型改进,人们可能会在短期内获得更加完善、先进的视频生成功能。
可能砸掉谁的饭碗OpenAI此次推出Sora更像是预览版,公众尚难以深入全面了解该模型的优缺点。OpenAI表示,目前仅主要向一些设计师和电影制作人等特定人群提供Sora访问权限,以获取有关改进该模型的反馈。公司不仅未公布训练Sora模型的数据等基础细节,也没确定何时面向公众发布。
Sora生成视频截图
一些分析人士认为,Sora再次凸显人工智能技术进步对现实生活和传统行业的深远影响。人工智能在视频生成领域的巨大发展前景为塑造影视产业新业态打开大门的同时,恐将颠覆现存影视产业。
Sora推出第二天,主营图像处理、视频制作软件的奥多比公司股价应声下跌超过7%。
好莱坞去年遭遇63年来首次编剧和演员全行业罢工,因为该行业的部分工作机会可能被人工智能取代。Sora横空出世让这一威胁变得更迫近和真切。
让伪造更逼真难辨
OpenAI在Sora技术报告的标题中写道,视频生成模型是“世界模拟器”。
如果世界可以被模拟,那么真与假的边界何在?不少业内人士担心,Sora将为“深度伪造”(Deepfake)技术推波助澜。加利福尼亚大学伯克利分校信息学院副院长法里德表示:“当新闻、图像、音频、视频——任何事情都可以伪造时,那么在那个世界里,就没有什么是真实的。”
图为2023年11月2日,在英国布莱奇利园,一名参会者经过首届人工智能安全峰会的宣传展板。新华社
记者李颖摄
针对造假顾虑,OpenAI称在真正面向公众推出产品时,将确保生成视频包含来源元数据,并推出检测视频真伪的工具。OpenAI还承诺,在产品中使用Sora前将采取安全措施,包括由“错误信息、仇恨内容和偏见等领域的专家”对模型进行对抗性测试以评估危害或风险;核查并拒绝包含极端暴力、性内容、仇恨图像、他人IP等文本输入提示等。
不过,OpenAI承认,即便进行了广泛的研究和测试,“我们无法预测人们使用我们技术的所有有益方式和滥用我们技术的所有方式”。
AI狂飙 能管得住吗科技领域颠覆式创新不断涌现,如何实现拥抱技术进步和确保社会安全的平衡,越来越受到各界关注。
OpenAI表示,将与世界各地的政策制定者、教育工作者和艺术家合作,了解他们的担忧,确定Sora的积极使用案例,并认为从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。
2023年7月7日,在瑞士日内瓦“人工智能造福人类全球峰会”上,一名参会者与仿真机器人索菲亚互动。新
华社记者连漪摄
业内人士指出,在当下治理框架、管控措施都未跟上的情况下,仅靠企业恐无法提供社会所需的人工智能安全性和信任度。
原文转自新华网: https://www.xinhuanet.com/微软二月更新:修复 75 个漏洞、升级 Windows 8 时代的安全启动密钥
- 30 个远程代码执行漏洞
- 16 个权限提升漏洞
- 10 个欺骗安全问题
- 9 个拒绝服务漏洞
- 5 个信息披露问题
- 3 项可绕过安全功能安全漏洞
- 密钥交换密钥(Key Exchange Key, KEK)
- 允许的签名数据库(Allowed Signature Database, DB)
- 禁止的签名数据库(Disallowed Signature Database, DBX)
原文转自51CTO: https://www.51cto.com/
OpenAI 阿尔特曼称 AI 潜在风险会让人“彻夜难眠”,呼吁建立国际机构监督 AI 发展
“我经常以国际原子能机构为例,将其作为处理最强大人工智能系统影响的典范。在部署超级智能或通用人工智能(IT之家注:AGI)之前,建立审计和安全措施至关重要。”
阿尔特曼还提到,一个非常微妙的“社会失衡”就能给 AI 系统带来严重破坏,自己曾为此彻夜难眠。“我对机器人在街上行走的想法不太感兴趣,我更关心非常微妙的社会失衡,即在社会中拥有这些系统,没有特别的邪恶意图,事情却出了大问题。”
然而他还强调,OpenAI 公司这样的人工智能行业不应在制定管理涉及 AI 行业的法规时处于领先地位。“我认为我们仍处于需要进行健康辩论的阶段。”
他认为,AI 将会广泛普及,且价格低廉,成为人类“创造未来的工具”。但与此同时,AI 的全面进步和发展仍需要时间与耐心,“就像手机从原始的移动电话发展到如今的iPhone一样。”
此外,阿尔特曼还称当前的世界仍处于 AI 早期阶段,“我们从未见过世界发生很大的变化,我认为原因在于我们目前拥有的技术就像黑白电视一样,还有很长的路要走。”
原文转自IT之家: https://www.ithome.com/
AMD 与微软合作,Windows 任务管理器将可监控 Ryzen NPU 使用情况
原文转自IT之家: https://www.ithome.com/0/750/752.htm
AI 芯片需求激增,HBM 内存价格暴涨 500%
捷径!快速找到Windows安全漏洞对应的修复补丁(截至2024年2月20日)
StatCounter:微软 Windows 占据近 73% 桌面系统份额,仍有三分之二用户选择 Win10
原文转自站长之家: https://www.ithome.com/