美国政府明确表示: AI 生成影像不能进行版权申告

自从 AI 创作影像的运用推出以来,对於版权问题的争议始终没有停过,由使用者提出指令後再由 AI 生成符合指令条件的影像,这与传统人工手绘、电绘之间存在非常显着的差异,但之中依然存在模糊地带。 AI 生成影像的版权归属到底该不该提出指令的使用者所有,又或是由 AI 公司所有,现在美国政府做出明确的裁示。

美国政府明确表示: AI 生成影像不能进行版权申告

美国着作权局(United States Copyright Office,简称 USCO)裁定,仅靠人类输入文字指令 AI 生成的影像不符合版权保护条件。在政策声明文件中写道,这些基於文字的指令更像是案主委托艺术家的需求,叙述想要的内容,由机器决定如何在画面中实现这些指令。简而言之,决定作者身分主张的创造力和原创作品核心要素掌握在机器手中而非真实人类手上。这里的主要论点是,人工智慧生成的艺术品背後下指令的人并不能对一件作品拥有控制权。

在历经数月的争论和针对开发生成 AI 模型(如 Midjourney 和 Stable Diffusion)的公司提起的多起诉讼後发表。USCO 表示,如果艺术作品中的表达元素不是人类作者的产物而是由机器产生,那麽这些作品与素材就不在着作权保护的领域。AI 生成的内容以多种形式在网路上流传,从视觉艺术到文学、音乐作品等,艺术家们担心自己的作品在未经同意的情况下被用於训练这些 AI 模型,而雇主则面临着胃部是人类创作和劳动的产物付费的难题。但是,USCO 的裁决不适确定的,版权索赔将根据具提情况而定。

人类作者身分的话题始终存在争议,这就是为何 USCO 依然为 AI 作品敞开大门,这些作品包含足够的水准的人工修饰和编改。至於 AI 生成的艺术必须在多大程度上受人为干预才能确定作者身分和随後的版权保护,这点目前还没有很明确的定义。然而该机构的声明为它设定一个大概的界线:「使用 Adobe Photoshop …

AI 伪造你声音,连你爸妈都能骗!为何语音合成诈骗盛行?

《华盛顿邮报》报导,美国联邦贸易委员会(Federal Trade Commission,FTC)最新统计显示,2022 年诈骗案以「冒名诈骗」数量最多,这 3.6 万次举报约 5 千件为电话诈骗,损失金额估计超过 1,100 万美元。然而,FTC 的助理总监麦克森(Will Maxson)无奈表示,电话诈骗很难追踪,因为发话者可能藏身世界任何角落,光要确定哪个单位有管辖权就有难度。

▲ 冒名诈骗数量高居第一,损失金额则排第二,仅次投资诈骗。(Source:FTC)

AI驱动的电话诈骗

除了成本低廉,只要一支电话就能展开诈骗,人工智慧技术进步,也替诈骗集团的百宝袋添柴加薪。

2019年,诈骗集团利用人工智慧(AI)技术,合成仿冒英国能源企业母公司主管声音,向属下诓称公司供应商需要资金,要求1小时内立刻汇款,诈得24.3万美元。

这是近年第一起利用合成语音诈骗的案例,此技术称为「深度声音」(deepvoice),和深度伪造(deepfake)类似,都是利用深度学习技术习得人类语言/相片特徵,接着再制出相似内容,以假乱真。

2020年,某香港银行经理接到客户电话,他认得对方的声音,客户表示要收购企业,要求他核准一笔高达3,500万美元转帐。後来警方调查才知道,该客户的声音也是合成音,这起案例是记录在案的第一起。

随着技术发展,合成声音的门槛降低。

数位监识学教授法理德(Hany Farid)表示,两年前还需要长时间样本,才能将人声复制得唯妙唯肖,现在只要简短30秒音档,就能捕捉到声音特徵,含年龄、性别、口音等。「现在如果抖音上传30秒影片,其他人就能复制你的声音」。

执法困难,完美风暴就此展开

柏金(Benjamin Perkin)的家庭就是合成语音诈骗案的受害者。某天,他的双亲接到一通自称律师的来电,对方表示柏金发生车祸,撞死美国外交官,现关在监狱,需柏金双亲支付费用处理法律事宜。

听起来很像典型的冒名诈骗,但律师马上将电话转交给柏金,柏金告诉父母很爱他们,希望父母筹到足够的金钱。

虽然很不寻常,但听起来毫无疑问就是柏金,所以柏金的父母就这样汇款1.5万美元。直到晚上柏金本人例行打电话给父母,才知道自己受骗了。

柏金不确定犯罪者如何取得自己的声音,不过他曾在YouTube分享雪上摩托车影片,里面就有他的声音。

要合成他人声音不是难事。新创公司ElevenLabs就提供相关服务,使用者只要上传一段声音,就能产出其他合成语音,试用免费,付费版月费从5美元到330美元。今年ElevenLabs在pre-seed轮就募得200万美元,不过也受到批评,因有使用者合成名人的声音,假装他们说出某些没说过的话。

ElevenLabs官网强调重视人工智慧道德(ethical AI),针对上述事件,还推文表示会设法阻止滥用,除了限制免费使用者合成语音,也会开发能侦测AI生产声音的工具。

不只新创,科技巨头微软也开发类似模型VALL-E,号称3秒钟样本就合成人类声音,不过微软也开发能侦测是否人工合成语音的模型,避免先进技术拿来做坏事。

▲ 微软开发的VALL-E模型不受语言限制,也能合成中文声音。(Source:VALL-E)

现有法律无法处罚AI合成语音业者

然而事发当下,受害者不太可能有精力打开侦测系统;对执法者来说,可能没有足够资源调查此类案件,且因为受害者无法提供声音相似以外线索,更不利破案;现行法律也没有办法处罚提供AI合成语音服务的厂商。

面对此类案件该如何自保?麦克森的建议是其实不脱传统应对电话诈骗方法:保持冷静,先放下手机,联络当事人,确认对方现况;且拨号来源也可能是伪造,不要马上相信对方;若对方要求用很难追踪的支付方式如礼品卡或比特币转帐,就可怀疑是诈骗。

技术进步、成本低廉、软体开发商无法可罚、警方没有办案着力点,法理德认为,所有元素都会构成完美风暴。

(本文由 远见杂志 …

【先行者经验:Chimes AI执行长谢宗震】靠ChatGPT辅助,非技术人员更容易发想AI新点子

企业数位转型开始扩大导入新兴科技时,对非技术人员往往会面临很大的适应考验,他们不知道如何应用新科技、分析数据或解读BI报表来决策。AI新创Chimes AI执行长谢宗震从去年底开始,开始用ChatGPT协助自家企业顾客面对这些挑战。

可用ChatGPT产生AI提案计画书

有一家使用了Chimes AI建模与管理平台产品的企业,老板想要将AI扩大应用到其他部门,要求各部门提案。不过,非技术部门不熟悉AI技术,无法想像如何将AI应用於工作流程优化。

谢宗震参考自家过往AI导入案例,利用提示工程做法,让ChatGPT自动生成AI应用发展企画书。谢宗震说,这份企画书已经足以提供企业思考的大方向,之後只要稍做修改,就能成为具可行性的计画。目前可以利用ChatGPT生成AI应用场景的计画书、产生专案开发计画、建议专案资料盘点、模拟专案资料、补齐专案资料、提供解读等等不同专案阶段的参考资料或知识。

能学习ChatGPT如何解读BI报表

如何运用ChatGPT来辅助非技术人员,例如企业业务团队常需要参考BI报表来决策,不过,就算有BI报表,业务人员不一定能将报表内容直接转化为具体洞见或执行计画。谢宗震观察,对不谙资料科学的中阶主管而言,从BI报表上冰冷的数据找到延伸方向,并整理为合理易懂的解释,不是一件易事。这是一个ChatGPT能应用的场景。企业可以输入报表或各式图表给ChatGPT,让它生成出易懂的分析来作为报告参考。

谢宗震说明,AI可以帮忙从资料之间的关联性找出可能解释。举例来说,ChatGPT能快速观察出太阳能光电厂的发电量跟天气、气温、能见度等变数间的关联性,并输出易懂的文字结论,例如发电量与哪个变数关联性最强。

尽管ChatGPT是处理自然语言的AI,不过也有办法让它读取视觉化图表。使用者可以对ChatGPT描述图表资料结构,例如折线图XY轴,再将数据以CSV的格式提供给ChatGPT,它就能读懂非纯文字的图表。谢宗震也观察到,为了避免资料外泄等原因,企业实务上通常不会直接将所有数据输入ChatGPT,而是将部分数据或模拟数据提供给ChatGPT解释後,再参考它生成的解释方向,来解读实际数据。

ChatGPT参数及提示输入是成果精准度关键

如何善用提示工程来引导ChatGPT的生成时,谢宗震提到,对ChaGPT定义使用者角色的重要性。举例来说,在请ChatGPT发想技术应用企画时,可以指示ChatGPT扮演生产技术部门里面的一个品管人员,生成的企画细节就会更加贴近实务需求。甚至,若指示ChatGPT扮演经验丰富的数据科学家角色来解释BI报表,解读能力也会提升。

企业导入ChatGPT的另一个隐忧是生成结果的精确度。作为一个生成式AI,ChatGPT会不会输出与实务情况脱节的内容,例如在生成报告时,添加了现实中不存在的数据或细节等?谢宗震坦言,这种情况确实有可能发生,因此在ChatGPT API的参数设定及指令输入上,必须依照需求做出相对应的调整,才能获得足够精确的输出成果。

举例来说,在ChatGPT API中,提供了一个Temperature参数,决定生成结果的多样性,数字越高,多样性越大,也就越可能与现实脱节。因此在需要高精度和可重现性的应用场景中,可以将此参数降为0。不过,也有些应用场景反而需要ChatGPT生出更多元的结果,例如探索新兴技术应用可能时就需要调高。

虽然ChatGPT只能根据2021年9月之前的数据来生成内容,不过,谢宗震认为,参考2年前的网路资料虽无法让企业一跃成为业界最前线,但已经足以让企业不落於人後。他甚至表示,这种用ChatGPT生成新兴技术应用企画的做法,「是一般企业追赶顶尖企业最好的方法。」

资料模糊化技术将成降低资料外泄风险关键

对不少企业来说,使用ChatGPT这类工具的一大疑虑,是担心敏感资料外泄。谢宗震认为,首要做法是,企业内部要规范好数据控管机制,以避免员工不慎上传涉及个资隐私或营业机密的数据。接下来,则是妥善利用资料模糊化技术。

由於企业使用ChatGPT来进行企画书或报表解读时,通常只需要大方向的趋势解读,因此企业可以先模糊化数据,再输入数据给ChatGPT。这些方法包括将具体数字转化为百分比、在数据中加入一定程度的杂讯,或者以实际数据为基础,做出一份模拟数据。

不过,谢宗震认为,随着越来越多企业认同ChatGPT等AI工具的价值,未来资料模糊化技术也会更加重要。就算财力雄厚的大型企业能直接购买一套AI模型,部署到自家环境中,要做到这种程度的投资前,企业内部仍须先进行小型概念验证,建立企业对这类工具的信心,因此资料模糊化这种较简单的做法,对於大小企业来说都有其必要性。

 更多相关报导  …

订做企业专用 AI,人工智慧训练服务正在崛起

人工智慧虽然可以成为工作上的好帮手,但从企业角度来看,提高生产力并非唯一考量,如何在增加竞争力的同时,依然保护商业机密,还要让 AI 专门为自己的商业领域服务,就需要客制化生成式 AI 以及人工智慧沟通与设计师。

相信不少朋友都体验过 ChatGPT、BinChat、MidJourney 和 Notion AI 等人工智慧工具,虽然这些工具能够达成让人惊艳的成果,但实际想运用在工作上仍有一些局限。它可能缺乏你商业领域的资料,你也没有那麽多时间去研究如何写出有效的提示语,更重要的是,如果真的涉及商业机密,谁能够保证你和 AI 的对话不会外流?

趁着这个潮流,多家新创公司正在转向提供一种新服务:企业客制化 AI。包括 Jasper、Typeface、Qunative 等,并成功吸引了数千万甚至上亿美元的投资人注金。他们能够依据企业的特定需求,整合专业资料後,提供一个客制化的生成式人工智慧,简单说,就是一个只为你的公司服务的 ChatGPT,它拥有正确的专业资料,让你可以快速处理工作,更重要的是,这些资料全都留在公司手上,而不会流传到其他人手上。

其中更为特别的是一间名为 SambaNova 的企业,他们在 2017 年主打开发人工智慧专用硬体,而获得投资,现在他们更希望透过这种软硬体整合的方式,替企业打造全套的 AI 解决方案。

「我们跟 NVIDIA 的 GPU 不同,我们可以依据客户需要使用的模组,制作专属的晶片。」SambaNova 执行长 Rodrigo Liang 指出,这样的硬体架构更加省电,效能也更优秀,可以替企业客制化 AI 跑出最佳效率。

具体来说,采用 SambaNova Suite 服务的公司,可以在私人环境下,开始训练自己的 …

生成式AI工具冲击教育现场:学生使用ChatGPT作弊怎麽办?

文:戴礼(Nigel P. Daly,拥有师范大学TESOL博士学位,是语言学习和教育科技方面发表过论文的研究员,目前在台北外贸协会培训中心担任商务沟通培训师)
译:陈昕妤

台湾要为会淹没学校——或至少学生家——的这波AI海啸袭击做好万全的准备。

自2022年11月OpenAI发布了ChatGPT,美国的各个学校董事们已经禁止了ChatGPT的使用。直至目前为止,台湾学校的董事仍都保持沉默,但等到百度在三月释出中文AI聊天机器人Ernie的时候,相同的狂热潮很有可能会袭卷台湾。

我们是否要担心AI聊天机器人为台湾教育系统带来的影响?为了一探究竟,我与ChatGPT展开了一段对话。

ChatGPT是什麽?

ChatGPT回覆:

ChatGPT是否只是个更使用者友善的Google搜寻?

ChatGPT回覆:

这还不能完全地展现出ChatGPT令人钦佩的能力。如果你还没玩过OpenAI的ChatGPT,那你不会知道它在AI技术方面有多大的进步。

ChatGPT与其他的AI聊天机器人有什麽差别?

ChatGPT回覆:

如同ChatGPT所说的,它的力量仰赖於它生成回覆的能力。这就是为什麽它被称作为「生成式AI」。

容我解释一下。

以科技面上来説,ChatGPT是至今最大的「大型语言模型」并使用着transformer模型架构来产生高品质、更接近人类的文字回覆。除了庞大的训练集之外,它也同时接受人类专家的训练,并持续学习以增强模型微调回应的能力。

本质上来说,ChatGPT是一个自然的语言生成器及转换器,其使用着数十亿个参数,并根据先前的上下文来预测句子中的下一个单字。作为一个生成式AI工具,它可以从大量现有的文字数据中学习,并生成语言近乎完美、逻辑连贯且自然的原创内容。

OpenAI的工程师创造了非常具有开创性的东西。甚至连他们都不一定完全了解ChatGPT是如何运作地如此良好。而ChatGPT也深知这点。

ChatGPT的工程师真的知道ChatGPT是如何运作的吗?

ChatGPT回覆:

ChatGPT标示着AI科技的重大进展,因为有着数十亿个数据与连结参数加上人工监督与强化学习。这使得它有点类似於拥有数兆个由人类经验形成的突触连接的大脑。

这跟我们在《魔鬼终结者》与《骇客任务》中看到的那种AI意识的出现不怎麽相同,但它似乎是朝着那个方向大步向前迈进。

ChatGPT能读取数百GB(Gigabyte)的网路文字,并能回答有关语言、历史、数学和写程式的问题。它可以成为一个很好的助教。

Photo Credit: iStock

ChatGPT是否该被使用在台湾的教育呢?

ChatGPT回覆:

像ChatGPT这样的AI聊天机器人可以在教育中发挥重大作用。它们知道的比老师知道的还要多。它们的速度比老师更快。它们在解释事情时,一定比大多数老师还要解释地更清楚。

我不确定老师们是否要担心自己的工作不保,但更多老师们需要担心的是他们的自尊心。不是所有老师都会面临这个担忧,但至少对能力欠佳,又害怕科技的那些老师而言,这或许是个隐忧。

像ChatGPT这种生成式AI工具会取代老师吗?

ChatGPT回覆:

这是一个令人放心的答案,也是我完全同意的答案。

用ChatGPT来生成资讯与文字的潜在用途是无限的,仅受限於人的想像力。因此,我稍微更进一步地让ChatGPT突破自我,为我提供对於将其使用在教育中,正式且合乎逻辑的同意派及反对派论述。

反对在教育中使用ChatGPT的理由是什麽?

ChatGPT回覆:

我想我们都会同意,这是一个对於反对依赖ChatGPT作为教育「主要来源」这个想法的有效逻辑演绎论述。

然而,我认为有趣的是,ChatGPT没有提到人类教育家和评论家的主要担忧:要求AI聊天机器人做作业和完成任务的作弊学生。

你为何没提及学生使用ChatGPT来作弊?

数据塑造生活与社会,让人既放心但又不安?——《 AI 世代与我们的未来》

数位世界已经改变了我们日常生活的体验,一个人从早到晚都会接受到大量数据,受益於大量数据,也贡献大量数据。这些数据庞大的程度,和消化资讯的方式已经太过繁多,人类心智根本无法处理。

与数位科技建立夥伴关系

所以人会本能地或潜意识地倚赖软体来处理、组织、筛选出必要或有用的资讯,也就是根据用户过去的偏好或目前的流行,来挑选要浏览的新项目、要看的电影、要播放的音乐。自动策划的体验很轻松容易,又能让人满足,人们只会在没有自动化服务,例如阅读别人脸书涂鸦墙上的贴文,或是用别人的网飞帐号看电影时,才会注意到这服务的存在。

有人工智慧协助的网路平台加速整合,并加深了个人与数位科技间的连结。人工智慧经过设计和训练,能直觉地解决人类的问题、掌握人类的目标,原本只有人类心智才能管理的各种选择,现在能由网路平台来引导、诠释和记录(尽管效率比较差)。

日常生活中很少察觉到对自动策划的依赖。图/Pexels

网路平台收集资讯和体验来完成这些任务,任何一个人的大脑在寿命期限内都不可能容纳如此大量的资讯和体验,所以网路平台能产出看起来非常恰当的答案和建议。例如,采购员不管再怎麽投入工作,在挑选冬季长靴的时候,也不可能从全国成千上万的类似商品、近期天气预测、季节因素、回顾过去的搜寻记录、调查物流模式之後,才决定最佳的采购项目,但人工智慧可以完整评估上述所有因素。

因此,由人工智慧驱动的网路平台经常和我们每个人互动,但我们在历史上从未和其他产品、服务或机器这样互动过。当我们个人在和人工智慧互动的时候,人工智慧会适应个人用户的偏好(网际网路浏览记录、搜寻记录、旅游史、收入水准、社交连结),开始形成一种隐形的夥伴关系。

个人用户逐渐依赖这样的平台来完成一串功能,但这些功能过去可能由邮政、百货公司,或是接待礼宾、忏悔自白的人和朋友,或是企业、政府或其他人类一起来完成。

网路平台和用户之间是既亲密又远距的联系。图/Envato Elements

个人、网路平台和平台用户之间的关系,是一种亲密关系与远距联系的新颖组合。人工智慧网路平台审查大量的用户数据,其中大部分是个人数据(如位置、联络资讯、朋友圈、同事圈、金融与健康资讯);网路会把人工智慧当成向导,或让人工智慧来安排个人化体验。

人工智慧如此精准、正确,是因为人工智慧有能力可以根据数亿段类似的关系,以及上兆次空间(用户群的地理范围)与时间(集合了过去的使用)的互动来回顾和反应。网路平台用户与人工智慧形成了紧密的互动,并互相学习。

网路平台的人工智慧使用逻辑,在很多方面对人类来说都难以理解。例如,运用人工智慧的网路平台在评估图片、贴文或搜寻时,人类可能无法明确地理解人工智慧会在特定情境下如何运作。谷歌的工程师知道他们的搜寻功能若有人工智慧,就会有清楚的搜寻结果;若没有人工智慧,搜寻结果就不会那麽清楚,但工程师没办法解释为什麽某些结果的排序比较高。

要评监人工智慧的优劣,看的是结果实用不实用,不是看过程。这代表我们的轻重缓急已经和早期不一样了,以前每个机械的步骤或思考的过程都会由人类来体验(想法、对话、管理流程),或让人类可以暂停、检查、重复。

人工智慧陪伴现代人的生活

例如,在许多工业化地区,旅行的过程已经不需要「找方向」了。以前这过程需要人力,要先打电话给我们要拜访的对象,查看纸本地图,然後常常在加油站或便利商店停下来,确认我们的方向对不对。现在,透过手机应用程式,旅行的过程可以更有效率。

透过导航,为旅途带来不少便利。图/Pexels

这些应用程式不但可以根据他们「所知」的交通记录来评估可能的路线与每条路线所花费的时间,还可以考量到当天的交通事故、可能造成延误的特殊状况(驾驶过程中的延误)和其他迹象(其他用户的搜寻),来避免和别人走同一条路。

从看地图到线上导航,这转变如此方便,很少人会停下来想想这种变化有多大的革命性意义,又会带来什麽後果。个人用户、社会与网路平台和营运商建立了新关系,并信任网路平台与演算法可以产生准确的结果,获得了便利,成为数据集的一部分,而这数据集又在持续进化(至少会在大家使用应用程式的时候追踪个人的位置)。

在某种意义上,使用这种服务的人并不是独自驾驶,而是系统的一部分。在系统内,人类和机器智慧一起协作,引导一群人透过各自的路线聚集在一起。

持续陪伴型的人工智慧会愈来愈普及,医疗保健、物流、零售、金融、通讯、媒体、运输和娱乐等产业持续发展,我们的日常生活体验透过网路平台一直在变化。

网路平台协助我们完成各种事项。图/Pexels

当用户找人工智慧网路平台来协助他们完成任务的时候,因为网路平台可以收集、提炼资讯,所以用户得到了益处,上个世代完全没有这种经验。这种平台追求新颖模式的规模、力量、功能,让个人用户获得前所未有的便利和能力;同时,这些用户进入一种前所未有的人机对话中。

运用人工智慧的网路平台有能力可以用我们无法清楚理解,甚至无法明确定义或表示的方式来形塑人类的活动,这里有一个很重要的问题:这种人工智慧的目标功能是什麽?由谁设计?在哪些监管参数范围里?

类似问题的答案会继续塑造未来的生活与未来的社会:谁在操作?谁在定义这些流程的限制?这些人对於社会规范和制度会有什麽影响?有人可以存取人工智慧的感知吗?有的话,这人是谁?

如果没有人类可以完全理解或查看数据,或检视每个步骤,也就是说假设人类的角色只负责设计、监控和设定人工智慧的参数,那麽对人工智慧的限制应该要让我们放心?还是让我们不安?还是既放心又不安?

——本文摘自《 AI 世代与我们的未来:人工智慧如何改变生活,甚至是世界?》,2022 年 12 月,联经出版公司,未经同意请勿转载。…