韩媒:台积电 AI 晶片生产市占率可能接近 100%!

本文来自中央社,INSIDE 经授权转载。

人工智慧(AI)热潮延烧,苹果、辉达、超微等大厂争相向掌握3奈米制程技术的台积电下单。韩媒指出,台积电 AI 晶片生产市占率可能接近 100%。

韩媒「中央日报」引述业界人士报导,台积电 3 奈米晶片去年每片要价 2 万美元,比 7 奈米价格高约 2 倍,也因此需求相对较少,只有苹果公司(Apple Inc.)负担得起。但今年受到 AI 巨浪带动,行动设备、伺服器业者都排队等着下单。

除了将在今年下半年推出应用 3 奈米行动 AP 晶片新机的苹果外,高通(Qualcomm)、联发科、英特尔(Intel)、超微(AMD)都将於今年开始推出首款 3 奈米晶片,台积电也为此扩厂新增产能。

在全球 AI 晶片市占超过 9 成的辉达(NVIDIA)同样将代工订单交给台积电,这让台积电在全球晶圆代工市场更坐稳冠军宝座,三星证券研究员文俊浩(译音)说,无论谁在这场 AI 晶片战争中胜出,台积电的 AI 晶片生产市占率都可能接近 100%,相当於垄断市场。

在需求暴增下,甚至有消息指出,台积电大户辉达只能退而选择 4 奈米制程,彭博行业研究分析师沈明(Charles Shum)表示,辉达的 AI …

Humane 在 AI Pin 开始发货之前解雇了 4% 员工

Humane 在本周解雇了 4% 的员工,这项消息是在该公司向市场正式出货 AI Pin 之前被披露的,因此格外引人注目。

The Verge 报导,Humane 此次裁员人数为 10 人,这也是这家成立 5 年的新创公司第一次裁员,且是在该公司向市场推出第一款产品之前。据匿名消息人士透露,该公司领导层最近告诉员工,今年的预算将会减少。

Humane 将在今年 3 月向市场正式出货 AI Pin,这项产品售价 699 美元(每月还需 24 美元订阅费用)、没有萤幕、由 AI 驱动,被宣传为「下个 iPhone」,比喻其即将带来的市场颠覆力。该公司由两名苹果前设计师 Imran Chaudhri 和 Bethany Bongiorno 成立。

AI Pin 最重要的工作是透过自家软体「AI Mic」来连接 AI 模型,Humane …

英国最高法院裁定:AI 不能成为「专利发明人」

英国最高法院近日裁定,人工智慧(AI)系统不能成为专利的「发明人」。这项具有里程碑意义的案件,起源於一名美国电脑科学家史蒂芬·塞勒(Stephen Thaler)希望可以在英国获得 2 项发明专利,他称这些发明是由他的「创造力机器」DABUS 所发明的,不过最终该 AI 系统的发明未能成功注册专利。

此前,塞勒尝试注册专利被英国智慧财产局(IPO)拒绝,理由是发明者必须是人或公司,而非机器。塞勒因此向英国最高法院提出上诉,历经 5 年後,近日英国最高法院驳回了这项上诉,因为根据英国专利法,「发明人必须是自然人」。英国最高法院也裁定,塞勒也不会因为是 DABUS 的拥有者而有权为 DABUS 申请专利。

不过,英国最高法院也指出,未来政府将持续审查 AI 领域的法律,以确保英国专利制度对 AI 创新的支持,以及对於在英国使用 AI 的支持。

事实上,塞勒也曾在美国输掉类似的案件。不过,美国最高法院是直接拒绝审理美国专利商标局拒绝为其 AI 系统创造的发明颁发专利的案件。

在这些案件中,塞勒并没有将自己列为发明人。专业智慧财产权诉讼公司 Powell Gilbert 的 Rajvinder Jagdev 指出,这项判决并不排除一个人使用 AI 来设计一项发明,来申请专利的权利;Osborne Clarke 律师事务所的专利诉讼律师 Tim Harris 也指出,如果塞勒将自己列为发明人,并且说明他是使用 DABUS 作为工具,那麽诉讼结果可能会有所不同。…

趋势科技:明年请小心生成式 AI 产生的社交工程!

以 ChatGPT 为首的生成式 AI 应用潜力无限,但反过来说,用在骇客攻击、网路诈骗同样也令人担忧。台湾资安厂商趋势科技今天发表《2024 资安年度预测报告》,明确指出在生成式 AI 协助下, 例如变脸诈骗、鱼叉式网路钓鱼等网路诈谝能力已大幅提高!

趋势科技指出生成式 AI 可以生成真实度更高的人脸、经历以及对话能力,让网路诈骗钓饵更具吸引力,得手机会大幅提升。根据 FBI 指出社交工程技巧网路犯本来就是受害者数量最多的犯罪、也是最赚钱的手法之一,预期 2024 年骇客会结合更多元的 AI 工具(例如聊天机器人、伪造语音相互搭配),制造出如虚拟绑架更多重面向的威胁。

像是今年出现的骇客版 ChatGPT「WormGPT」,以及後来出现的 WolfGPT、FraudGPT 都属此类,WormGPT、WolfGPT 可产生可用於实施网路犯罪的文字、程式码和其他资料格式,FraudGPT 则是直接生成一个非常拟真的诈骗网页诱人点击。

推荐阅读:ChatGPT 暗黑版:诈骗好夥伴 WormGPT!专为黑帽骇客而生

另外生成式 AI 本身的安全性也是越来越严重的问题,大型语言模型(LLM)本身更容易遭遇「资料下毒」(data poisoning)。资料下毒简单来说就是透过窜改学习资料,或是直接入侵模型的资料库或流程架构内来恶意操弄 LLM 的表现与行为,除了更容易生成有问题、充满恶意的内容之外,还更可能导致 LLM 泄漏出机密资料。

除了生成式 AI 之外,趋势科技也预测「蠕虫自动化攻击」会成为接下来骇客集团找到系统漏洞,攻击云端的首选武器,像今年微软 Azure AD …

拜登签署AI行政命令:开发商公开模型前须与华府共享安全测试成果,确保无损公众利益

文:张瑞邦(Tucker Chang)

美国总统拜登(Joe Biden)於2023年10月30日签署一项有关人工智慧(以下简称AI)的行政命令,盼以此规范AI发展,进而完善国家安全与公共卫生等全面性风险管控。

根据《法国24电视台》(France 24)报导,拜登於签署该行政命令前曾表示,AI正在以惊人的速度推动科技变革,在带来益处的同时也存在巨大风险,尤其当前最先进的AI技术引发社会对失业及网路攻击(Cyberattack)等其他人类丧失主导优势的担忧。

「人类将在未来10年甚至5年内看到比过去50年更多的科技改革,AI就在我们身边,它能使我们的生活变得更好,但在某些状况下也会对我们造成伤害,如果AI落入有心人士之手,骇客就更容易利用应用程式中的漏洞进行破坏。为避免这类风险,我们必须管理该项技术。」拜登如此说道。

美国副总统贺锦丽(Kamala Harris)对此也强调,政府有道德、伦理及社会责任来确保AI的应用及技术能促进人类的福祉,避免公众遭受潜在伤害,并确保所有人皆有机会享受其带来的益处。

贺锦丽补充提及:「美国是AI领域的全球领头羊,而该行政命令能成为国际社会的行动典范并建立全球共识,在总统拜登的带领下,美国将继续在AI领域的发展方面发挥引领世界的重要作用。」

该AI行政命令包含哪些规范细项?

英国《卫报》(The Guardian)指出,拜登签署的这项行政命令要求,训练AI模型的科技公司及系统开发者,在「尚未对外公布测试结果前」,须事先向美国政府分享其研发成果,特别是那些可能对国家安全、经济发展及公共卫生构成风险的AI系统开发商。

多元观点 等你解锁

付费加入TNL+会员, 独家评论分析、资讯图表立刻看 149 元 / 月 1490 元 / 年 到期自动续订,可随时取消,详情请见订阅方案 查看订阅方案 已是会员? 登入 …

技术进步:扫厕所机器人登场,清洁行业面临变革

机器人现在发展快速,现在又出现「扫厕所机器人」,可以扫马桶、拖地、擦镜子、擦洗手台等事情。你扫厕所做什麽它就能做什麽,难道又一个职业要被机器人取代了吗?扫厕所机器人真的可以完全取代人类吗?一起看下去

可以取代人类的扫厕所机器人

今天介绍的扫厕所机器人是来自美国SOMATIC 公司的商品,它在成为全能扫厕所机器人以前,曾经只是一只会喷水的机械手臂。2018年10月SOMATIC在YouTube 发布扫厕所机器人的雏型,一开始的机器人只是一只能够对马桶喷发强力水柱机械手臂。

2018年10月也就是同一个月更新的另一个影片,这个机器人手臂已经进化到可以把马桶盖掀开、按冲水按钮并透过路径创造来让机器人能够使用高压水柱来冲马桶和洗手台还能够把湿地板吸乾。

2018年11月更是使用3D map来确定扫厕所机器人途径,也使用VR来设定机器人的清洁范围和指令。

2018年12月出现机器人的造型基础、实验并操作前面给机器人设定的路径指令。

2019年8月将机器人正式测试,这时的机器人已经可以移动、喷水、拖地了。

经过不断的努力之後,今年8月SOMATIC更新一部影片,影片里的扫厕所机器人会开门、掀马桶盖、喷水清洁、拖地等,甚至还能跨越走廊再去跑到另外一边扫厕所。厕所的门是推开的还是拉开的也都难不倒它。

SOMATIC的扫厕所机器人真的这麽厉害,厉害到可以代替清洁工吗?小编觉得目前还是不行的,因为看影片的时候虽然机器人可以喷水去清洁马桶,但如果今天马桶里有残留的💩的话,目前看来这个机器人没有刷马桶的功能所以可能顽固的💩没有办法被清掉。机器人也没有收垃圾的功能,所以等於还是需要一个人来收垃圾,这样等於没有节省到人力。小编之前打工扫厕所还有遇到地上有尿或湿湿的卫生纸,这个机器人感觉没有清理这种状况的能力,它甚至还可能会直接喷水然後拖地,到时候整间厕所都会是尿味(想想就觉得恶心٩(ŏ﹏ŏ、)۶)。目前SOMATIC给这台机器人定位是「办公大楼的扫厕所机器人」,毕竟它这麽大一台,在百货公司那种厕所随时都有人的地方还是不太方便的。…

美国政府明确表示: AI 生成影像不能进行版权申告

自从 AI 创作影像的运用推出以来,对於版权问题的争议始终没有停过,由使用者提出指令後再由 AI 生成符合指令条件的影像,这与传统人工手绘、电绘之间存在非常显着的差异,但之中依然存在模糊地带。 AI 生成影像的版权归属到底该不该提出指令的使用者所有,又或是由 AI 公司所有,现在美国政府做出明确的裁示。

美国政府明确表示: AI 生成影像不能进行版权申告

美国着作权局(United States Copyright Office,简称 USCO)裁定,仅靠人类输入文字指令 AI 生成的影像不符合版权保护条件。在政策声明文件中写道,这些基於文字的指令更像是案主委托艺术家的需求,叙述想要的内容,由机器决定如何在画面中实现这些指令。简而言之,决定作者身分主张的创造力和原创作品核心要素掌握在机器手中而非真实人类手上。这里的主要论点是,人工智慧生成的艺术品背後下指令的人并不能对一件作品拥有控制权。

在历经数月的争论和针对开发生成 AI 模型(如 Midjourney 和 Stable Diffusion)的公司提起的多起诉讼後发表。USCO 表示,如果艺术作品中的表达元素不是人类作者的产物而是由机器产生,那麽这些作品与素材就不在着作权保护的领域。AI 生成的内容以多种形式在网路上流传,从视觉艺术到文学、音乐作品等,艺术家们担心自己的作品在未经同意的情况下被用於训练这些 AI 模型,而雇主则面临着胃部是人类创作和劳动的产物付费的难题。但是,USCO 的裁决不适确定的,版权索赔将根据具提情况而定。

人类作者身分的话题始终存在争议,这就是为何 USCO 依然为 AI 作品敞开大门,这些作品包含足够的水准的人工修饰和编改。至於 AI 生成的艺术必须在多大程度上受人为干预才能确定作者身分和随後的版权保护,这点目前还没有很明确的定义。然而该机构的声明为它设定一个大概的界线:「使用 Adobe Photoshop …

生成式AI工具冲击教育现场:学生使用ChatGPT作弊怎麽办?

文:戴礼(Nigel P. Daly,拥有师范大学TESOL博士学位,是语言学习和教育科技方面发表过论文的研究员,目前在台北外贸协会培训中心担任商务沟通培训师)
译:陈昕妤

台湾要为会淹没学校——或至少学生家——的这波AI海啸袭击做好万全的准备。

自2022年11月OpenAI发布了ChatGPT,美国的各个学校董事们已经禁止了ChatGPT的使用。直至目前为止,台湾学校的董事仍都保持沉默,但等到百度在三月释出中文AI聊天机器人Ernie的时候,相同的狂热潮很有可能会袭卷台湾。

我们是否要担心AI聊天机器人为台湾教育系统带来的影响?为了一探究竟,我与ChatGPT展开了一段对话。

ChatGPT是什麽?

ChatGPT回覆:

ChatGPT是否只是个更使用者友善的Google搜寻?

ChatGPT回覆:

这还不能完全地展现出ChatGPT令人钦佩的能力。如果你还没玩过OpenAI的ChatGPT,那你不会知道它在AI技术方面有多大的进步。

ChatGPT与其他的AI聊天机器人有什麽差别?

ChatGPT回覆:

如同ChatGPT所说的,它的力量仰赖於它生成回覆的能力。这就是为什麽它被称作为「生成式AI」。

容我解释一下。

以科技面上来説,ChatGPT是至今最大的「大型语言模型」并使用着transformer模型架构来产生高品质、更接近人类的文字回覆。除了庞大的训练集之外,它也同时接受人类专家的训练,并持续学习以增强模型微调回应的能力。

本质上来说,ChatGPT是一个自然的语言生成器及转换器,其使用着数十亿个参数,并根据先前的上下文来预测句子中的下一个单字。作为一个生成式AI工具,它可以从大量现有的文字数据中学习,并生成语言近乎完美、逻辑连贯且自然的原创内容。

OpenAI的工程师创造了非常具有开创性的东西。甚至连他们都不一定完全了解ChatGPT是如何运作地如此良好。而ChatGPT也深知这点。

ChatGPT的工程师真的知道ChatGPT是如何运作的吗?

ChatGPT回覆:

ChatGPT标示着AI科技的重大进展,因为有着数十亿个数据与连结参数加上人工监督与强化学习。这使得它有点类似於拥有数兆个由人类经验形成的突触连接的大脑。

这跟我们在《魔鬼终结者》与《骇客任务》中看到的那种AI意识的出现不怎麽相同,但它似乎是朝着那个方向大步向前迈进。

ChatGPT能读取数百GB(Gigabyte)的网路文字,并能回答有关语言、历史、数学和写程式的问题。它可以成为一个很好的助教。

Photo Credit: iStock

ChatGPT是否该被使用在台湾的教育呢?

ChatGPT回覆:

像ChatGPT这样的AI聊天机器人可以在教育中发挥重大作用。它们知道的比老师知道的还要多。它们的速度比老师更快。它们在解释事情时,一定比大多数老师还要解释地更清楚。

我不确定老师们是否要担心自己的工作不保,但更多老师们需要担心的是他们的自尊心。不是所有老师都会面临这个担忧,但至少对能力欠佳,又害怕科技的那些老师而言,这或许是个隐忧。

像ChatGPT这种生成式AI工具会取代老师吗?

ChatGPT回覆:

这是一个令人放心的答案,也是我完全同意的答案。

用ChatGPT来生成资讯与文字的潜在用途是无限的,仅受限於人的想像力。因此,我稍微更进一步地让ChatGPT突破自我,为我提供对於将其使用在教育中,正式且合乎逻辑的同意派及反对派论述。

反对在教育中使用ChatGPT的理由是什麽?

ChatGPT回覆:

我想我们都会同意,这是一个对於反对依赖ChatGPT作为教育「主要来源」这个想法的有效逻辑演绎论述。

然而,我认为有趣的是,ChatGPT没有提到人类教育家和评论家的主要担忧:要求AI聊天机器人做作业和完成任务的作弊学生。

你为何没提及学生使用ChatGPT来作弊?

数据塑造生活与社会,让人既放心但又不安?——《 AI 世代与我们的未来》

数位世界已经改变了我们日常生活的体验,一个人从早到晚都会接受到大量数据,受益於大量数据,也贡献大量数据。这些数据庞大的程度,和消化资讯的方式已经太过繁多,人类心智根本无法处理。

与数位科技建立夥伴关系

所以人会本能地或潜意识地倚赖软体来处理、组织、筛选出必要或有用的资讯,也就是根据用户过去的偏好或目前的流行,来挑选要浏览的新项目、要看的电影、要播放的音乐。自动策划的体验很轻松容易,又能让人满足,人们只会在没有自动化服务,例如阅读别人脸书涂鸦墙上的贴文,或是用别人的网飞帐号看电影时,才会注意到这服务的存在。

有人工智慧协助的网路平台加速整合,并加深了个人与数位科技间的连结。人工智慧经过设计和训练,能直觉地解决人类的问题、掌握人类的目标,原本只有人类心智才能管理的各种选择,现在能由网路平台来引导、诠释和记录(尽管效率比较差)。

日常生活中很少察觉到对自动策划的依赖。图/Pexels

网路平台收集资讯和体验来完成这些任务,任何一个人的大脑在寿命期限内都不可能容纳如此大量的资讯和体验,所以网路平台能产出看起来非常恰当的答案和建议。例如,采购员不管再怎麽投入工作,在挑选冬季长靴的时候,也不可能从全国成千上万的类似商品、近期天气预测、季节因素、回顾过去的搜寻记录、调查物流模式之後,才决定最佳的采购项目,但人工智慧可以完整评估上述所有因素。

因此,由人工智慧驱动的网路平台经常和我们每个人互动,但我们在历史上从未和其他产品、服务或机器这样互动过。当我们个人在和人工智慧互动的时候,人工智慧会适应个人用户的偏好(网际网路浏览记录、搜寻记录、旅游史、收入水准、社交连结),开始形成一种隐形的夥伴关系。

个人用户逐渐依赖这样的平台来完成一串功能,但这些功能过去可能由邮政、百货公司,或是接待礼宾、忏悔自白的人和朋友,或是企业、政府或其他人类一起来完成。

网路平台和用户之间是既亲密又远距的联系。图/Envato Elements

个人、网路平台和平台用户之间的关系,是一种亲密关系与远距联系的新颖组合。人工智慧网路平台审查大量的用户数据,其中大部分是个人数据(如位置、联络资讯、朋友圈、同事圈、金融与健康资讯);网路会把人工智慧当成向导,或让人工智慧来安排个人化体验。

人工智慧如此精准、正确,是因为人工智慧有能力可以根据数亿段类似的关系,以及上兆次空间(用户群的地理范围)与时间(集合了过去的使用)的互动来回顾和反应。网路平台用户与人工智慧形成了紧密的互动,并互相学习。

网路平台的人工智慧使用逻辑,在很多方面对人类来说都难以理解。例如,运用人工智慧的网路平台在评估图片、贴文或搜寻时,人类可能无法明确地理解人工智慧会在特定情境下如何运作。谷歌的工程师知道他们的搜寻功能若有人工智慧,就会有清楚的搜寻结果;若没有人工智慧,搜寻结果就不会那麽清楚,但工程师没办法解释为什麽某些结果的排序比较高。

要评监人工智慧的优劣,看的是结果实用不实用,不是看过程。这代表我们的轻重缓急已经和早期不一样了,以前每个机械的步骤或思考的过程都会由人类来体验(想法、对话、管理流程),或让人类可以暂停、检查、重复。

人工智慧陪伴现代人的生活

例如,在许多工业化地区,旅行的过程已经不需要「找方向」了。以前这过程需要人力,要先打电话给我们要拜访的对象,查看纸本地图,然後常常在加油站或便利商店停下来,确认我们的方向对不对。现在,透过手机应用程式,旅行的过程可以更有效率。

透过导航,为旅途带来不少便利。图/Pexels

这些应用程式不但可以根据他们「所知」的交通记录来评估可能的路线与每条路线所花费的时间,还可以考量到当天的交通事故、可能造成延误的特殊状况(驾驶过程中的延误)和其他迹象(其他用户的搜寻),来避免和别人走同一条路。

从看地图到线上导航,这转变如此方便,很少人会停下来想想这种变化有多大的革命性意义,又会带来什麽後果。个人用户、社会与网路平台和营运商建立了新关系,并信任网路平台与演算法可以产生准确的结果,获得了便利,成为数据集的一部分,而这数据集又在持续进化(至少会在大家使用应用程式的时候追踪个人的位置)。

在某种意义上,使用这种服务的人并不是独自驾驶,而是系统的一部分。在系统内,人类和机器智慧一起协作,引导一群人透过各自的路线聚集在一起。

持续陪伴型的人工智慧会愈来愈普及,医疗保健、物流、零售、金融、通讯、媒体、运输和娱乐等产业持续发展,我们的日常生活体验透过网路平台一直在变化。

网路平台协助我们完成各种事项。图/Pexels

当用户找人工智慧网路平台来协助他们完成任务的时候,因为网路平台可以收集、提炼资讯,所以用户得到了益处,上个世代完全没有这种经验。这种平台追求新颖模式的规模、力量、功能,让个人用户获得前所未有的便利和能力;同时,这些用户进入一种前所未有的人机对话中。

运用人工智慧的网路平台有能力可以用我们无法清楚理解,甚至无法明确定义或表示的方式来形塑人类的活动,这里有一个很重要的问题:这种人工智慧的目标功能是什麽?由谁设计?在哪些监管参数范围里?

类似问题的答案会继续塑造未来的生活与未来的社会:谁在操作?谁在定义这些流程的限制?这些人对於社会规范和制度会有什麽影响?有人可以存取人工智慧的感知吗?有的话,这人是谁?

如果没有人类可以完全理解或查看数据,或检视每个步骤,也就是说假设人类的角色只负责设计、监控和设定人工智慧的参数,那麽对人工智慧的限制应该要让我们放心?还是让我们不安?还是既放心又不安?

——本文摘自《 AI 世代与我们的未来:人工智慧如何改变生活,甚至是世界?》,2022 年 12 月,联经出版公司,未经同意请勿转载。…