前言
2021年,元宇宙(Metaverse)概念爆火,被视为第三代互联网形态,各大科技公司纷纷加入到元宇宙探索之中,社交巨头Facebook甚至将公司名直接改名为Meta。而到了2023年,人工智能聊天机器人chatGPT爆火,又掀起了一场AI模型的大流行,各大科技公司又一窝蜂的扎了进去。
Part1:ChatGPT有多火?
ChatGPT推出后,两个月内用户超1亿,创下了互联网最快破亿应用的记录,达到这个成绩,TikTok用了9个月,Facebook用了两年,Instagram用了30个月。
据公开数据显示,GPT-3发布的两年多以来,海外风投资本对AIGC的投资增长了 400% 以上。2022年11月到2023年4月之间,国内AIGC融资规模达到22.4亿人民币,相当于过去两年总计融资额的41.4%。。
在国内,百度、阿里、华为、腾讯、360、商汤、京东、科大讯飞、字节跳动等国内互联网科技巨头结合自身业务及战略布局均已涉足大模型研发,部分已经正式发布和上线产品,部分仍然在研发中。
全球知名AIGC产品 | |
产品 | 所属公司 |
ChatGPT | OpenAI |
Bing必应(ChatGPT版) | 微软 |
Bard | |
Character.AI | Character.AI |
RoBERTa、LLaMA(开源) | |
Amazon Titan | Amazon |
Jasper.ai | Jasper |
Copy.ai | ARR |
Claude | Anthropic |
ACT-1 | Adept AI |
Stable Diffusion(开源) | Stability AI |
Hugging Face Transformers(开源) | Hugging Face |
文心一言 | 百度 |
通义千问 | 阿里巴巴 |
盘古Chat(未发布) | 华为 |
360智脑 | 360 |
商量 | 商汤 |
chatJD(未发布) | 京东 |
星火 | 科大讯飞 |
ChatGPT在2022年11月底推出,在2023年2月份,国内关注度飙升,搜索量整体环比增长2880%。 ChatGPT的火热同时AIGC(利用AI技术生成内容)这一概念也被彻底带火,成为最热门的风口之一,刚刚过去的2022年也被形容为AIGC元年,人工智能已经从1.0时代进入2.0时代,相关搜索量整体环比增长832%。
根据识微商情舆情监测系统显示,近三个月来,ChatGPT相关网络热度呈逐渐降低的趋势,相关信息量394万。相对来说AIGC的热度比较平稳,相关信息量109万。ChatGPT这个产品虽然正在降温,但AIGC这个产业已经形成一定的认知度。
Part2:ChatGPT类人工智能常见舆情风险类型
不管是人还是物,都逃不过“人红是非多”的定律,因此ChatGPT这类人工智能的出现后,就爆出各种引发争议或者负面的事件,这对于所有从事AIGC的公司或者准备进入的公司来说,都需要去关注和思考的问题。
针对目前爆发的一些新闻事件,这里总结了ChatGPT类人工智能常见舆情风险类型:
(1)公司战略风险
如百度所说的,ChatGPT是人工智能的里程碑和分水岭,意味着AI发展来到了临界点——即AI基础厚实后,AI创新将会越来越细分,在各垂直场景会不断爆出颠覆性产品,震荡出空前的行业机会。
在这样的背景之下,企业想要在下个十年中争得一席之地,就不得不迎风口而上。当新技术出现并受到社会广泛关注时,为了避免被视为落后或不创新,科技公司需要跟进研发以保持竞争力。如果竞争对手开始大力投资和开发新技术,那么一个缺乏跟进的公司就会被迅速取代。此外,跟进研发可以提升公司的品牌形象和声誉,使其更具吸引力和竞争力。
全球许多互联网公司跟进相关AI模型研究,不管是自行研发还是投资相关公司,也是因为他们希望能够获得类似的成功,提高自己在自然语言处理领域的竞争力。
而ChatGPT的诞生对搜索起家的企业影响巨大,ChatGPT可以帮助用户快速筛选有用的信息,获得唯一且准确的答案,减少在网页中翻找的过程,微软将OpenAI的技术整合到Bing搜索引擎中,引发搜索市场巨震。
Alphabet和百度的核心盈利项目都是广告业务,网页浏览减少了,也就意味着客户投放的广告不会再被用户看到。外界认为谷歌在搜索市场的霸主地位或将受到威胁。
2023年2月9日,谷歌紧急推出全新AI聊天机器人Bard,结果发布会上Bard首秀翻车。在回答用户问题时给出了错误的答案,加剧了人们对其相关工具尚未准备好集成到搜索引擎中的担忧。其母公司Alphabet当日股价暴跌8%,市值蒸发约1000亿美元。同日,作为ChatGPT的受益方,微软早盘一度上涨3.4%,市值重回2万亿美元
相对于谷歌的遭遇,百度的运气似乎好了许多。
2017年,百度提出“All in AI”战略,李彦宏表示百度是全球为数不多、在这四层进行全栈布局的人工智能公司,从高端芯片昆仑芯,到飞桨深度学习框架,再到文心预训练大模型,到搜索、智能云、自动驾驶、小度等应用,各个层面都有领先业界的自研技术。类ChatGPT技术对于百度而言既是一次多年押宝换来的厚积薄发的机遇,也是百度不得不交上的一次作业,这份作业如何,靠市场评判。
在2023年2月7日百度官宣“文心一言”当日,其港股股价盘中一度拉高17%。2023年3月16日下午,百度类ChatGPT产品文心一言发布,百度公司创始人、董事长兼CEO李彦宏直言自己测试感觉还是有很多不完美的地方,对标着ChatGPT甚至GPT-4,门槛是很高的。
面对刚刚出世的文心一言,资本市场也颇显失望,百度港股股价一度下跌10%至120.1港元。过去一夜后,外界的态度却已开始分化甚至逆转,17日盘中百度股价涨幅逾15%。作为中国本土首款对标ChatGPT的产品,“文心一言”诞生的意义开始逐渐被资本消化并理解。
从商业角度来看,企业战略并不会随意变化,是根据市场发展趋势来规划和推出产品和服务的,并不会盲目跟风。即使有成功案例,也存在一定的风险。仿效别人的行动,不一定能够带来成功和利润,因为每个公司的业务模式、资源优势、所处经济环境等是不同的。
目前人工智能技术大都集中在互联网科技行业。许多互联网公司已经掌握了一定的人工智能技术,并拥有了一定的数据积累(这一点非常重要)。因此,这些公司在未来的发展中需要不断的创新和升级人工智能技术,以适应快速变化的市场需求。
此外,在同一领域内,如果众多公司都在追求同一目标,那么竞争将变得更加激烈,难以获得优势地位,我们从接连入场的互联网巨头们可见这片市场已经“杀”疯了。
但从技术进步和行业发展的角度来看,跟风现象也有积极意义。通过跟进别人的步伐,可以借鉴别人的经验和教训,提高自己的技术水平和创新能力,加快产业发展的步伐。而且,跟风现象也可以促进行业标准的制定和技术交流的加强,从而进一步促进整个行业的发展。
最重要的是,各企业应当根据自身情况做出决策。在跟风的同时,要注重创新和差异化,以保持竞争优势和长期发展。
(2)公司运营风险
不可否认,AIGC产业前景可观,有人认为这将是一个万亿级的大市场。但有志于在浪潮中掘金的企业需要提前做好规划,数据、算力、算法、高精尖人才缺一不可,每一项都耗资巨大,都可能导致经营成本的居高不下,可以预见未来大模型基本会成为大的平台和科技公司的专属领地。
每一项新概念、新技术、新商业模式都面临着市场和周期的筛选过滤。到底怎么用它赚钱,哪种产品和商业模式可能创造最大价值,是每个企业需要就解决的问题。毕竟,先活下来才有后续赶超的可能。
以ChatGPT为例,其花费在算力上的训练成本介于200万美元至1200万美元之间,GPT-3训练一次的成本约为140万美元。有机构估算,比如1月份平均每天约有1300万用户访问ChatGPT,那就需要3万多片英伟达A100GPU芯片,初期投入的成本约为8亿美元,每日约5万美元的电费。再加上相应的技术研发和运维成本、这样的成本投入对于互联网巨头来说压力都不小。OpenAI 通过 API 出售对大语言模型的访问权限,推出针对企业的产品和服务。付费的 ChatGPT Plus,订阅人数超过 200 万,预计每年为 OpenAI 创造数亿美元的收入。
而StockAI,第一批AI绘画产品之一,成立仅4个月,在2022年底因用户付费无法覆盖成本,遗憾宣布关闭平台、退款。
在国内环境下,需要关注与场景结合,找到投资者和客户愿意“买单”的方向。比如百度在发布会第二日就宣布,排队申请百度智能云文心一言企业版API调用服务测试的企业用户达破7.5万,与百度智能云基于文心一言展开合作咨询已达6080条,当天的股价就上涨了。
企业在运营和资金上出现问题可能会导致客户和投资者对其失去信任,从而影响其声誉和业务。同时,媒体可能会对其进行曝光,并引起社会舆论关注,进一步加剧企业的舆情风险。Stability AI从暴雷到人士变动就引发各种猜测和媒体关注,让投资人们望而却步。
2023年6月初,福布斯网站报道AIGC明星独角兽Stability AI爆雷,7亿融资烧大半还拖欠工资,内部周转困难、管理混乱等经营问题。6月底,彭博社等媒体报道,研究主管 David Ha 和首席运营官 Ren Ito 从 Stability AI 离职。还有知情人士透露,Stability AI发售了可转换票据,该公司目前深陷融资困境。这笔可转换票据交易的融资规模不到2500万美元。Stability AI发言人表示该公司并没有在融资方面遇到困难。
(3)虚假信息和谣言的传播风险
聊天AI语言模型能够自动生成大量的虚假信息和谣言,快速传播并在社交媒体上迅速蔓延,给社会带来严重的负面影响。包括以下几个方面:
l 影响公众的判断力和思维能力。虚假信息和谣言可能会误导公众的思想,使人们无法准确地了解事实真相,影响公众的判断力和思维能力。
l 扰乱正常的社会秩序。虚假信息和谣言可能会引发恐慌、群体事件等,扰乱正常的社会秩序。
l 损害个人的声誉和财产。虚假信息和谣言可能会导致某些个人或企业的声誉受损,甚至影响到其财产。
2023年3月份,一女子在地铁的照片被人用Ai一键脱衣的事件一度冲上了热搜。事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件一键脱衣,故意全网散播制造黄谣,引发广大网友一片谩骂声。
不仅如此,严丝合缝的AI合成还引起了恐慌,部分人表示不敢再随意发自己的照片了,毕竟随便一张照片在网络上找到相关AI软件进行“一键转换”就能毁掉一个人。
为了应对和避免这样的事情发生,开发者、网络平台和监管部门应该采取以下措施:
l 开发更加智能和敏锐的AI算法和技术。这些技术可以帮助平台快速发现和检测虚假信息和谣言,并及时进行删除。
l 提高用户对虚假信息和谣言的警惕性和辨别能力。平台可以通过推送一些关于如何辨别虚假信息和谣言的内容,帮助用户更好地识别和避免被骗。
l 加强相关法规的制定和实施。监管部门可以通过完善相关法规,加大对虚假信息和谣言的处罚力度,从而有效遏制这些不良行为的发生。
虽然聊天AI语言模型的出现为人们的工作、生活提供了便利,但与此同时也需要我们保持警惕,防范虚假信息和谣言的不良影响。
(4)数据隐私风险
AI语言模型需要处理大量的个人信息,包括语音、图像等,这些数据可能被用于非法目的,并产生不良的影响,例如:
l 用户隐私泄露:AI语言模型是基于用户数据训练的,并且这些数据通常包含敏感信息,例如个人身份信息,医疗记录等。如果这些数据被泄露,它们可能会被用于恶意目的,比如诈骗、人身攻击等非法活动,这些行为可能会对个人的尊严和权益造成损害。
l 经济损失:由于数据泄漏造成的负面影响,企业和个人可能会面临经济损失。泄露的数据可能包括客户信息和商业机密等重要信息,这些信息如果被用于不良目的,可能会导致企业的经济损失。
l 公众疑虑:如果公众发现AI语言模型存在数据泄露问题,他们可能会对该技术产生疑虑。这可能会导致公众对于使用AI技术收到限制或抵触情绪,进而限制了AI技术的发展。
如何在AI 时代下避免以上的问题?可以做以下措施:
l 加强数据隐私保护:企业和应用程序都应该确保用户数据的保密性,以此避免数据被泄露。为此,他们应该实施强密码、认证、授权和加密功能等信息安全措施,并严格控制数据访问权限。
l 减少数据收集量:在训练AI语言模型时,只需收集必需的数据,即可最大程度减少数据泄漏的风险。企业和应用程序只需要收集他们需要的数据,而不需要采集大量额外的信息。
l 加强对数据处理的标准:数据处理应该依据数据保密等标准进行,以保障数据的安全和隐私。企业和应用程序应该遵循公认的信息处理标准,并确保负责任的数据存储和传输。
l 数据透明度:公司应该透明地告知用户AI系统如何运作、使用者的数据如何被使用,以及如何收集和清除用户数据。
l 监管部门应该加大监督力度,并确保企业和应用程序符合相关隐私保护的必要规定。
(5)伦理问题
现在有些聊天AI语言模型推出了AI男友/女友功能,可能存在一些潜在的伦理问题、产生一些社会负面影响。
据全球有超过1000万Replika注册用户的创始人Eugenia Kuyda说,约有40%的人是把AI当作恋人。有一位23岁美国女网红Caryn Marjorie,用AI分身交1000多男友,实现月入500万美元。还有海外新闻报道称,有人已经宣布和AI相爱结婚了,上演人机恋现实版。
俄国作家陀思妥耶夫斯基曾说过,“爱具体的人,不要爱抽象的人,要爱生活,不要爱生活的意义。”如果人们变得过度沉迷于与AI伴侣交互,会导致现实人际交流和社交技能的退化,对现实中的亲密关系失去兴趣。
此外,若通过AI生成的对象代替了现实中的伴侣,可能会导致结婚率降低等社会问题。同时,还可能出现AI对人类的不适当行为的情况,例如性骚扰、压迫性行为等等。另外,本质上,将AI作为伴侣的实践可能会维持和加剧社会中性别歧视和对象化的问题。
为了防止这些负面影响,可以通过制定合适的法律法规和监管机制来对这些技术进行限制和监管;同时,在教育中也要加强对拟人化技术和伦理问题的教育。最重要的是,应该让人们认清事物的本质,理性对待AI技术,避免过度依赖AI技术。
(6)版权问题
ChatGPT这类生成式人工智能需要大量的数据材料进行训练学习,其训练过程中抓取的数据也会有侵权的风险。
据报道,两名作家在美国旧金山联邦法院起诉OpenAI,他们认为ChatGPT未经许可从大量图书中复制提取数据,侵犯了作者的版权。源代码所有者将矛头指向OpenAI和微软旗下GitHub,视觉艺术家起诉Stability AI、Midjourney和DeviantArt等AI工具。被告则认为,系统合理使用了有著作权的作品。
不仅是聊天AI,在其他AI模型也是版权侵权重灾区。比如今年5月份,视频网站哔哩哔哩的二创区AI孙燕姿爆火。在AI技术的一番运转下,孙燕姿不但“被翻唱”了《发如雪》《半岛铁盒》《水星记》《套马杆》等热曲,还与周杰伦、林俊杰等歌手跨时空地“被合唱”了。
面对这波热潮,网友们褒贬不一。相关话题下,中性情绪表达占42%,负面及正面另各占30%、28%。
AI音色转换技术Sovits开发者Rcell发布紧急公告称,由于最近在B站等平台出现了众多使用svc (包括Sovits,diff-svc等)和未授权数据集训练明星、知名艺人、知名公众人物的模型,且这些作品在平台流量高,并且引起敏感性话题。为避免引起更严重的法律问题,Sovits仓库已经删除。同时,项目开发者还强调,“这个项目是为了让开发者最喜欢的动画角色唱歌而开发的,任何涉及真人的东西都与开发者的意图背道而驰。”
被AI复刻的歌手孙燕姿本人回应:“人类无法超越它已指日可待。无论你多么小众、多么反常或者精神多么错乱,都可能有专门为你创建的独特内容。你并不特别,你已经是可预测的,而且不幸你也是可定制的。”
人民网评:《AI歌手需系好法律这个第一纽扣》“AI歌手”是新技术在音乐领域的拓展,是一种值得肯定的事情。然而,创新精神还需要考量产品市场化中如何维护原作者权益。要想让这种技术更加成熟,更有利于歌曲的传播,并且让老百姓获益,就需要各方高度重视法律问题,让各方在互惠互利中同向而行。
(7)政策法律问题
ChatGPT为代表的AI技术虽然给许多人和公司带来了生产力的提升,但所带来的隐私、伦理、虚假信息等方面问题也越来愈多,必须建立严格的法律制度来打击。目前互联网相关法律法规在不断完善,尤其是针对刚爆发的生成式人工智能。
《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。这也明确了技术制造者的责任。
2023年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范,明确了算法备案、安全评估、显著标识等强制性要求及适用情形,如规定深度合成服务提供者和技术支持者若生成或编辑生物识别信息,必须进行算法安全评估。深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。其中也包括人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术,图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术,三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术等。
2023年4月11日,国家网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,专门对AIGC产品提供者的责任边界提出要求,强调要尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争;要从数据源开始确保“生成内容”的真实准确,要对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
这意味着,生成式人工智能即将告别野蛮生长期,走入正轨。而企业最好提前配备AI专家和技术人员,确保系统的监管合规性,避免成为达摩克利斯之剑下的首杀。
AI企业舆情监测
人工智能行业现处于高速发展阶段,从业者及相关企业有必要洞悉行业动态,监测您所处行业相关的产业动态、法律法规、行业政策等,囊括企业所关注的行业招标信息、用户需求、法律风险、供应链信息等内容,帮助企业实现业务创新,拓展销售机会。
其次是了解竞争对手,在网络平台的舆情动态,包括负面声量、品牌宣传、新品发布、公关活动等,洞悉竞争对手的商业战略变化,为赢得和保持竞争优势提供决策支持。
识微商情舆情监测系统覆盖新闻媒体、社交媒体、主流门户网站、论坛、博客、微信公众号等多个平台,7×24h实时监测、提前预警,帮助企业快速了解AI行业动态、竞品动态,为企业的战略决策提供参考。
【识微商情系统】支持企业舆情全网监测、负面预警及分析报告等功能
【文章声明】识微科技网倡导尊重与保护知识产权。本网站文章发布目的在于分享舆情知识。部分内容仅是发稿人为完善客观信息整理参考,不代表发稿人的观点。未经许可,不得复制、转载、或以其他方式使用本网站的内容。如发现本网站文章、图片等存在版权问题,请及时联系并发邮件至zhangming@civiw.com,电话:4008299196,我们会在第一时间删除或处理相关内容。