赞。

android 随音乐律动动画_python

这个工具名叫Lucid Sonic Dreams,先来感受一下它炫酷的效果:

从它的名字清晰的声波梦就能感受到一种梦幻色彩,正如网友所说:

这就像海市蜃楼,好像能看出描绘的物体或场景,但是下一分钟,你又会意识到它们并不存在。

android 随音乐律动动画_tensorflow_02

而这样的音乐视效,只需几行代码就可以实现,还支持各种自定义,一起来了解一下吧~

在输入向量中加入音乐特征

Lucid Sonic Dreams默认使用StyleGAN2-ADA架构,并且使用Justin Pinkney的存储库awesome-pretrained-stylegan2中的预训练模型。

根据指定风格的图像数据集进行训练,得到与其风格相似的大量图像。

android 随音乐律动动画_tensorflow_03

模型首先从向量生成图像,图像再通过动态效果来展现音乐。

在图像生成过程中,向模型中输入包含512个数值的向量来决定输出图像,而向量的细微变化,在输出图像中也会产生相应地细微的变化。

因此,Lucid Sonic Dreams将从音乐的声波中提取的数值(例如:振幅),添加到输入向量中。对视频中的每一帧都执行此操作,创造出随音乐跳动和变化的艺术效果。

作者开发这一工具的灵感,来自Matt Siegelman的Deep Music Visualizer项目——BigGAN,它能够使其生成的图像与音乐同步变化。

△图源:Matt Siegelman

虽然以前也有一些类似的项目,但Lucid Sonic Dreams与众不同的地方在于,它是能够实现自定义Python软件包

可简可繁,满足不同需求

Lucid Sonic Dreams的安装十分简单,只需要运行pip install lucidsonicdreams进行安装就可以了。

首先要实现基本可视化,代码是这样的:

from lucidsonicdreams import LucidSonicDream
L = LucidSonicDream(song = 'song.mp3',
                    style = 'abstract photos')
L.hallucinate(file_name = 'song.mp4')

由此就可以生成抽象风格的视频:

android 随音乐律动动画_机器学习_04

如果想要改变风格、查看可用风格的列表,可以运行命令:

from lucidsonicdreams import show_styles


show_styles()

此外,也可以使用其他风格,只需要将参数值style设为相应的pkl文件路径,就像这样:

L = LucidSonicDream(song = 'raspberry.mp3', style = 'VisionaryArt.pkl')
  L.hallucinate(file_name = 'raspberry.mp4', 
                pulse_react = 1.2, 
                motion_react = 0.7, 
                contrast_strength = 0.5, 
                flash_strength = 0.5)

例如,使用Jeremy Torman训练的模型生成的效果:

android 随音乐律动动画_python_05

Lucid Sonic Dreams的默认设置使它用起来十分容易,但除此在外,它也有很多可调的参数,作者在Colab上详细地罗列了这些参数。

例如,参数pulse_react、motion_react和class_react,分别控制着3个主要视觉组件:Pulse(脉冲)、Motion(运动)和Class(种类)。

Pulse组件,是指视音乐中打击乐元素的视觉效果。从数学上讲,脉冲是声波振幅临时添加到输入向量的结果,而在下一帧视频中,向量则恢复正常。

android 随音乐律动动画_机器学习_06

Motion,指的是视觉效果变形的速度,是将振幅累加到输入向量中的结果。

android 随音乐律动动画_tensorflow_07

Class,则是指生成的图像中对象的标签。例如,利用WikiArt图像训练的样式,共有167个种类,包括:梵高、达芬奇、抽象绘画等。

android 随音乐律动动画_tensorflow_08

这些类别由音调控制,具体来说,就是将12个音高映射到12个类别。而这些音高的不同振幅,会影响第二输入向量(类向量)的数值,该向量则决定了模型生成的对象。

此外,参数speed_fpm控制该运动的速度,该参数为0时,则使图像在歌曲的无声的部分静止。FPM代表每分钟帧数,也就是每分钟初始化的向量数。

在默认情况下,程序还带有与音频中打击乐元素同步的“对比”和“闪光”效果,分别通过contrast_strength和flash_strength参数进行设置。

调整参数的代码就像这样:

L = LucidSonicDream('pancake_feet.mp3', style = 'modern art')
  L.hallucinate(file_name = 'pancake_feet.mp4', 
                speed_fpm = 0, 
                motion_react = 0.8, 
                contrast_strength = 0.5, 
                flash_strength = 0.7)

除了这些内置的效果外,Lucid Sonic Dreams还支持创建自定义效果。只需创建一个函数,其中至少包含3个参数:

array用来指示应用效果的图像;strength决定对音乐的反应程度;amplitude则是指音乐在任何给定时间点的音量。

然后,将此自定义函数传递给EffectsGenerator对象。比如,利用scikit-image生成旋流效果的代码:

import numpy as np 
  from skimage.transform import swirl
  from lucidsonicdreams import EffectsGenerator  
  def swirl_func(array, strength, amplitude):
    swirled_image = swirl(array, 
                          rotation = 0, 
                          strength = 100 * strength * amplitude,
                          radius=650)
    return (swirled_image*255).astype(np.uint8)  
  swirl_effect = EffectsGenerator(swirl_func,
                                  audio = 'unfaith.mp3', 
                                  strength = 0.2, 
                                  percussive = False)

生成的旋流效果示例:

android 随音乐律动动画_python_09

如果想要使用其他的GAN架构,只需定义一个函数,将噪声向量和类向量(NumPy数组)作为输入,从而输出图像。

实际上,这个函数可以是将输入向量转换为图像的任何函数,甚至不需要使用GAN。

除此之外,Lucid Sonic Dreams支持上传分离后的音轨来控制参数,音乐制作者可以用它作为音乐可视化程序。

例如,使用分离后的打击乐音轨来控制Pulse,同时用一个分离后的“合成和弦”音轨来控制Class:

L = LucidSonicDream(song = 'lucidsonicdreams_main.mp3',
                      pulse_audio = 'lucidsonicdreams_pulse.mp3',
                      class_audio = 'lucidsonicdreams_class.mp3',
                      style = 'wikiart')