Google Gemini体验
今天看到Google 发布了 Nano Banana 2图像生成模型,于是本着好奇的心去体验了下 Google Gemini。
第一部分:Nano Banana 2
打开Gemini 网页版,我首先直奔主题去体验 Nano Banana 2
测试案例:
提示词: "A vintage bookstore interior at golden hour, sunlight streaming through dusty windows, illuminating floating dust particles, an elderly cat sleeping on a stack of leather-bound books, cinematic composition, 35mm film grain"
生成结果:

对于图像和摄影理解,我并非专业,但根据这张图片,可以很明显看到,皮革纹理、猫毛以及旧纸张质感特别逼真,景深合理,光线自然而且也有粒子效果,文字,纹理,材质清晰可辨。我觉得效果还是挺不错的。
第二部分:Lyria 3
顺带着我也体验了下音乐创作功能,这个功能可以根据一段文字或者一张照片生成一段30秒的完整音乐片段。
测试案例
提示词:Create an uplifting indie-folk travel song with warm acoustic guitar and male vocals. Nostalgic yet hopeful mood, medium tempo 110 BPM, about self-discovery through journey。
生成结果如下所示,可以点击听一下(输出为mp4格式的视频,同时会自动生成一个专辑封面,我只尝试了根据提示词创作的方式,也可以根据图片来生成音乐,这种方式我没体验)
对于生成的结果,我个人主观感受是:
中文歌曲没英文歌曲听起来自然,而且中文发音咬字还是有点问题(英文发音我也听不太懂就是了哈哈)
生成结果只有30秒,感觉比较适合用在短视频或者广告配乐上。
第三部分:Canvas
这个功能简单来说就是从文字描述到实时的动态可视化和编辑,通过侧边栏来进行视觉上的预览以及多媒体整合。
测试案例:写一个辛辣犀利的段子来吐槽一个令人抓狂的槽点。
输出结果后,点击右侧创建代码,进入代码预览页面,可以将文档转写为HTML页面,展示层面上会比文档更加生动


展开进入高血压体验
对于Canvas,我觉得它的核心价值是降低了创作门槛,可以很方便的将自然语言转化为可交互的数字作品,多了一种表达的方式,适合探索性的创作。