为什么人工智能正在吞噬Web3创造者经济?
你看,这一切都源于机器和深度学习的进步,这些进步随着DALL-E、MidJourney、Stable Diffusion以及最近英伟达宣布的GET3D而爆发。
英伟达新的GET3D人工智能工具将使最近的许多初创公司陷入混乱,这些公司开发了扫描物体以填充元宇宙的工具和应用程序。
“NVIDIA GET3D仅使用2D图像进行训练,就能生成具有高保真纹理和复杂几何细节的3D形状。这些3D对象的创建格式与流行的图形软件应用程序所使用的格式相同,允许用户立即将其形状导入3D渲染器和游戏引擎,以便进一步编辑。”
NVIDIA 表示,使用 A100 Tensor Core GPU 将大约 100 万张图像输入 GET3D 只用了两天时间(瞧瞧这破坏其他旨在手动扫描日常物体的工具的速度和规模)。
它能够即时生成有纹理的3D形状,这对开发者来说可能是一个游戏规则的改变,这可以帮助他们迅速为虚拟世界填充各种令人激动的物体。
在另一款英伟达人工智能工具StyleGAN-NADA的帮助下,它还可以通过基于文本的提示将各种风格应用到物体上,因此,完全可以轻松地对豆腐渣建筑物进行粗加工或创建一个覆盖着泥土的 4×4 高精度雄壮建筑。
更重要的是,这些图像无疑将最终成为USD(通用场景描述)文件格式,英伟达和其他公司正在推动该格式成为对象的可互操作标准之一。
这意味着创造者经济的承诺,即人们可以通过上传自己的图片在Sketchfab等网站上销售来赚钱,实际上已经成为过去式。
以Quixel为例,他们的巨型图像库可能被吸收,并立即成为多余的业务。
在MidJourney、DALL-E和现在的Stable Diffusion之间,用不了多久,我们就可以输入一个文本提示,人工智能就会从中生成一个元宇宙。
完全实现3D和沉浸式环境并不遥远,我敢打赌,在不到两年的时间里,我们就可以为Unity或虚幻引擎提供一个插件,以便能够程序性地生成虚拟世界,我们可以通过一个短语或几个字来移动和互动。
现在已经有一些工具可以缩短设计过程,但这一过程的最后一步只是告诉人工智能你想要的结果,而没有其他的参与。
然后将由用户来调整形状或保持原样。我们已经看到了“提示工程师”的迹象,这些人了解如何操纵所需的提示短语以获得最佳的初始结果,他们将涌现并获得体面的价格(至少在短时间内)。
但他们并不是真正的创造者,而人工智能在主导行业时将会把这些人甩在身后。
Fabian Stelzer创造了一套科幻短视频,100%使用这些工具与社区驱动的叙事一起产生,这让人非常兴奋,我们能看到人工智能如何使创造力皿煮化,但在同一时间,它也消除了大量的传统创作者(这些创作者通常必须参与这些项目)。
在自己发现这个世界的同时,能够飞快的促使预告片出现令人难以置信的体验真令人激动,这也是对未来的一瞥。
随着这些工具被输入更多的真实世界的数据来进行训练,这只会增加这种情况更快发生的可能性。
但是,已经有了反击。
在一个两极化的举动中,Getty(视觉媒体集团和流行的图片和编辑摄影供应商)本周宣布,它将禁止使用人工智能的艺术作品,理由是版权问题。
“对于这些模型输出的版权问题,以及图像、元宇宙和图像中包含的那些个人的权利问题,存在着真正的担忧。为了我们客户的利益,我们正在采取主动行动。”
Getty是一个巨大的图片库,被世界各地的媒体公司使用。它包含了用户可以用来为他们的文章作插图的图像和原始照片,但需要支付许可费。
Getty公司宣布,它将加强对其平台上使用人工智能制作的图像的监管,称任何使用Stable Diffusion、DALL-E和Midjourney等程序制作的图像将被禁止。
因此,现在发生了一场——创作者和使用人工智能进行创作的人之间的战争。而这将产生波及整个行业的伤亡。
软件可能正在吞噬世界,但人工智能甚至在软件吞噬世界之前就有机会迅速先吞噬创造者经济。