自然语言处理作为人工智能的一个重要分支,在我们的生活中得到了广泛应用。其中RNN算法作为自然语言处理的经典算法之一,是文本生成的重要手段。而今天我们就将利用RNN算法建立一个写歌词的软件。其中的界面如下:
RNN模型有比较多的变种,这里介绍最主流的RNN模型结构如下:
上图中左边是RNN模型没有按时间展开的图,如果按时间序列展开,则是上图中的右边部分。我们重点观察右边部分的图。
这幅图描述了在序列索引 tt附近RNN的模型。其中:
- x(t)x(t)代表在序列索引 tt时训练样本的输入。同样的,x(t?1)x(t?1)和x(t+1)x(t+1)代表在序列索引 t?1t?1和t+1t+1时训练样本的输入。
- h(t)h(t)代表在序列索引 tt时模型的隐藏状态。h(t)h(t)由x(t)x(t)和h(t?1)h(t?1)共同决定。
- o(t)o(t)代表在序列索引 tt时模型的输出。o(t)o(t)只由模型当前的隐藏状态h(t)h(t)决定。
- L(t)L(t)代表在序列索引 tt时模型的损失函数。
- y(t)y(t)代表在序列索引 tt时训练样本序列的真实输出。
- U,W,VU,W,V这三个矩阵是我们的模型的线性关系参数,它在整个RNN 络中是共享的,这点和DNN很不相同。也正因为是共享了,它体现了RNN的模型的“循环反馈”的思想。
基于以上认知,我们开始搭建我们的软件。
实验前的准备
首先我们使用的python版本是3.6.5所用到的库有TensorFlow,是用来训练和加载神经 络常见的框架,常常用于数值计算的开源软件库。节点表示数学操作,线则表示在节点间相互联系的多维数据数组,即张量(tensor);tkinter用来绘制GUI界面的库;
Pillow库在此项目中用来处理图片和字体等问题。因为我们的软件不是空白背景的。需要借助Image函数添加背景。
RNN算法搭建
1、数据集处理和准备:
我们训练的数据集使用各种歌手的歌词本作为训练集。其中数据集放在date.txt里,其中部分数据集如下:
2、模型的训练:
模型训练的代码直接运行train.py即可训练。其中流程如下:
- 首先要读取数据集
- 设定训练批次、步数等等
- 数据载入RNN进行训练即可
其中代码如下:
deftrain:
filename = ‘date.txt’
withopen(filename, ‘r’, encoding= ‘utf-8’) asf:
text = f.read
reader = TxtReader(text=text, maxVocab= 3500)
reader.save( ‘voc.data’)
array = reader.text2array(text)
generator = GetBatch(array, n_seqs= 100, n_steps= 100)
model = CharRNN(
numClasses = reader.vocabLen,
mode = ‘train’,
numSeqs = 100,
numSteps = 100,
lstmSize = 128,
numLayers = 2,
lr = 0.001,
Trainprob = 0.5,
useEmbedding = True,
numEmbedding = 128
)
model.train(
generator,
logStep = 10,
saveStep = 1000,
maxStep = 100000
)
3、RNN 络搭建:
RNN算法的搭建,我们定义整个神经 络类,然后分别定义初始化、输入、神经元定义等函数。损失函数和优化器使用均方差和AdamOptimizer优化器即可。
部分代码如下:
# 创建输入
defbuildInputs( self) :
numSeqs = self.numSeqs
numSteps = self.numSteps
numClasses = self.numClasses
numEmbedding = self.numEmbedding
useEmbedding = self.useEmbedding
with tf.name_scope( ‘inputs’):
self.inData = tf.placeholder(tf.int32, shape=(numSeqs, numSteps), name= ‘inData’)
self.targets = tf.placeholder(tf.int32, shape=(numSeqs, numSteps), name= ‘targets’)
self.keepProb = tf.placeholder(tf.float32, name= ‘keepProb’)
# 中文
ifuseEmbedding:
with tf.device( “/cpu:0”):
embedding = tf.get_variable( ’embedding’, [numClasses, numEmbedding])
self.lstmInputs = tf.nn.embedding_lookup(embedding, self.inData)
# 英文
else:
self.lstmInputs = tf.one_hot( self.inData, numClasses)
# 创建单个Cell
defbuildCell( self, lstmSize, keepProb) :
basicCell = tf.nn.rnn_cell.BasicLSTMCell(lstmSize)
drop = tf.nn.rnn_cell.DropoutWrapper(basicCell, output_keep_prob=keepProb)
returndrop
# 将单个Cell堆叠多层
defbuildLstm( self) :
lstmSize = self.lstmSize
numLayers = self.numLayers
keepProb = self.keepProb
numSeqs = self.numSeqs
numClasses = self.numClasses
with tf.name_scope( ‘lstm’):
multiCell = tf.nn.rnn_cell.MultiRNNCell(
[ self.buildCell(lstmSize, keepProb) for_inrange(numLayers)]
)
self.initial_state = multiCell.zero_state(numSeqs, tf.float32)
self.lstmOutputs, self.finalState = tf.nn.dynamic_rnn(multiCell, self.lstmInputs, initial_state= self.initial_state)
seqOutputs = tf.concat( self.lstmOutputs, 1)
x = tf.reshape(seqOutputs, [- 1, lstmSize])
with tf.variable_scope( ‘softmax’):
softmax_w = tf.Variable(tf.truncated_normal([lstmSize, numClasses], stddev= 0. 1))
softmax_b = tf.Variable(tf.zeros(numClasses))
self.logits = tf.matmul(x, softmax_w) + softmax_b
self.prediction = tf.nn.softmax( self.logits, name= ‘prediction’)
# 计算损失
defbuildLoss( self) :
numClasses = self.numClasses
with tf.name_scope( ‘loss’):
targets = tf.one_hot( self.targets, numClasses)
targets = tf.reshape(targets, self.logits.get_shape)
loss = tf.nn.softmax_cross_entropy_with_logits(logits= self.logits, labels=targets)
self.loss = tf.reduce_mean(loss)
# 创建优化器
defbuildOptimizer( self) :
gradClip = self.gradClip
lr = self.lr
trainVars = tf.trainable_variables
# 限制权重更新
grads, _= tf.clip_by_global_norm(tf.gradients( self.loss, trainVars), gradClip)
trainOp = tf.train.AdamOptimizer(lr)
self.optimizer = trainOp.apply_gradients(zip(grads, trainVars))
# 训练
deftrain( self, data, logStep= 10, saveStep= 1000, savepath= ‘./models/’, maxStep= 100000) :
ifnotos.path.exists(savepath):
os.mkdir(savepath)
Trainprob = self.Trainprob
self.session = tf.Session
with self.session as sess:
step = 0
sess.run(tf.global_variables_initializer)
state_now = sess.run( self.initial_state)
forx, y indata:
step += 1
feed_dict = {
self. inData:x,
self. targets:y,
self. keepProb:Trainprob,
self. initial_state:state_now
}
loss, state_now, _= sess.run([ self.loss, self.finalState, self.optimizer], feed_dict=feed_dict)
ifstep % logStep == 0:
print( ‘[INFO]: <step>: {}/{}, loss: {:.4f}’.format(step, maxStep, loss))
ifstep % saveStep == 0:
self.saver.save(sess, savepath, global_step=step)
ifstep > maxStep:
self.saver.save(sess, savepath, global_step=step)
break
# 从前N个预测值中选
defGetTopN( self, preds, size, top_n= 5) :
p = np.squeeze(preds)
p[np.argsort(p)[ :-top_n]] = 0
p = p / np.sum(p)
c = np.random.choice(size, 1, p=p)[ 0]
returnc
4、歌词的生成:
设置关键词变量,读取模型文件,输出结果即可。
代码如下:
defmain(_):
reader = TxtReader(filename= ‘voc.data’)
model = CharRNN(
numClasses = reader.vocabLen,
mode = ‘test’,
lstmSize = 128,
numLayers = 2,
useEmbedding = True,
numEmbedding = 128
)
checkpoint = tf.train.latest_checkpoint( ‘./models/’)
model.load(checkpoint)
key= “雪花”
prime = reader.text2array(key)
array = model.test(prime, size=reader.vocabLen, n_samples= 300)
print( “《”+key+ “》”)
print(reader.array2text(array))
界面的定义和调用
其中Bat里直接写入:
python song.py
其中过程效果如下:
1、界面布局:
界面布局使用canvas画布以达到添加背景图片的效果。背景图片设置为1.jpg,按钮背景图片设置为3.jpg。图片也可以自己更换掉。然后文本框作为提示的效果,分别定义字体,大小等等即可
代码如下:
root = tk.Tk
root.title(‘AI写歌词’)
# 背景
canvas = tk.Canvas(root, width=800, height=500, bd=0, highlightthickness=0)
imgpath = ‘1.jpg’
img = Image.open(imgpath)
photo = ImageTk.PhotoImage(img)
imgpath2 = ‘3.jpg’
img2 = Image.open(imgpath2)
photo2 = ImageTk.PhotoImage(img2)
canvas.create_image(700, 400, image=photo)
canvas.pack
label=tk.Label(text= “请输入关键词:”,font=( “微软雅黑”,20))
entry = tk.Entry(root, insertbackground=’blue’, highlightthickness=2,font=( “微软雅黑”,15))
entry.pack
entry1 = tk.Text(height=15,width=115)
entry1.pack
2、功能调用:
我们使用按钮中的command参数调用已设置好的函数即可。其中函数部分我们通过生成文本和删除文本的方式读入数据和写入数据。为了防止数据重叠故在要时刻监测重复软件。定义的函数内容如下:
def song:
ss=entry.get
f= open( “1.txt”, “w”)
f. write(ss)
f. close
os.startfile( “1.bat”)
whileTrue:
ifos. path.exists( “2.txt”):
f= open( “2.txt”)
ws=f. read
f. close
entry1. insert( “0.0”, ws)
break
try:
os. remove( “1.txt”)
os. remove( “2.txt”)
except:
pass
3、GUI代码:
整个GUI界面代码如下:
import tkinter as tk
from PIL import ImageTk, Image
import os
try:
os. remove( “1.txt”)
os. remove( “2.txt”)
except:
pass
import os
def song:
ss=entry.get
f= open( “1.txt”, “w”)
f. write(ss)
f. close
os.startfile( “1.bat”)
whileTrue:
ifos. path.exists( “2.txt”):
f= open( “2.txt”)
ws=f. read
f. close
entry1. insert( “0.0”, ws)
break
try:
os. remove( “1.txt”)
os. remove( “2.txt”)
except:
pass
root = tk.Tk
root.title( ‘AI写歌词’)
# 背景
canvas = tk.Canvas(root, width= 800, height= 500, bd= 0, highlightthickness= 0)
imgpath = ‘1.jpg’
img = Image. open(imgpath)
photo = ImageTk.PhotoImage(img)
imgpath2 = ‘3.jpg’
img2 = Image. open(imgpath2)
photo2 = ImageTk.PhotoImage(img2)
canvas.create_image( 700, 400, image=photo)
canvas.pack
label=tk.Label(text= “请输入关键词:”,font=( “微软雅黑”, 20))
entry = tk.Entry(root, insertbackground= ‘blue’, highlightthickness= 2,font=( “微软雅黑”, 15))
entry.pack
entry1 = tk.Text(height= 15,width= 115)
entry1.pack
bnt = tk.Button(width= 15,height= 2,image=photo2,command=song)
canvas.create_window( 100, 50, width= 200, height= 30,
window=label)
canvas.create_window( 500, 50, width= 630, height= 30,
window=entry)
canvas.create_window( 400, 100, width= 220, height= 50,
window=bnt)
canvas.create_window( 400, 335, width= 600, height= 400,
window=entry1)
root.mainloop
到这里,我们整体的程序就搭建完成,下面为我们程序的运行过程和结果:
源码地址:
链接:https://pan.baidu.com/s/1EJsHIXbKUmRG-MdHcqkdFg
提取码:iz5m
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!