文章目录
- 一、项目介绍
- 二、开发环境
- 三、系统展示-基于hadoop的物联网数据统计分析系统
- 四、代码展示
- 五、论文展示
- 六、项目总结
一、项目介绍
【研究背景】
随着物联网技术的快速发展,物联网设备正在全球范围内普及,物联网数据呈爆炸性增长。这些数据中蕴含着丰富的信息和价值,但传统的数据处理方法已无法满足海量数据的处理需求。此外,物联网设备产生的数据具有高度的异构性和复杂性,如何有效地整合和分析这些数据成为一个亟待解决的问题。因此,基于Hadoop的物联网数据统计分析系统的研究具有重要意义。
【现有解决方案存在的问题】
目前,针对物联网数据的处理主要存在以下问题:
数据处理效率低下:传统的数据处理方法无法有效处理大规模的物联网数据,处理速度和效率无法满足实际需求。
数据整合困难:由于物联网设备的多样性,数据格式和协议各不相同,导致数据整合困难,难以实现统一管理和分析。
数据安全性和隐私保护不足:在处理大量敏感的物联网数据时,如何保证数据的安全性和隐私保护是一个重要的问题。
【研究目的和意义】
本课题旨在解决上述问题,通过基于Hadoop的物联网数据统计分析系统,实现以下目标:
提高数据处理效率:利用Hadoop的分布式计算特性,可以高效地处理大规模的物联网数据,提高处理速度和效率。
实现数据整合和管理:通过构建统一的数据管理和分析平台,可以整合不同格式和来源的物联网数据,方便管理和查询。
保障数据安全性和隐私保护:通过数据加密、访问控制等措施,可以有效保护敏感数据的隐私和安全。
本课题的研究成果将为物联网数据的处理、整合和管理提供新的解决方案,有助于更好地利用和挖掘物联网数据中的价值,推动物联网技术的快速发展和应用。
二、开发环境
- 大数据技术:Hadoop、Spark、Hive
- 开发技术:Python、Django框架、Vue、Echarts
- 软件工具:Pycharm、DataGrip、Anaconda、VM虚拟机
三、系统展示-基于hadoop的物联网数据统计分析系统
四、代码展示
import sys
sys.path.append(r'F:\workplace\Python\ml\LSTM-Agricultural-Products-Prices\Time-Series-Prediction-with-LSTM/')
from utils import eemd_tools, data_tools, networks_factory, data_metrics
from utils.constants import const
# fix random seed for reproducibility
np.random.seed(7)
data_multi = np.load(const.PROJECT_DIR + "data/eemd/apple/data_multi.npy")
print("# shape", data_multi.shape) # not .shape()
# print(data_multi)
n_dims = data_multi.shape[1] # magic number !
print("# dims: ", n_dims)
# normalize features
scaler = data_tools.Po_MinMaxScaler
scaled = scaler.fit_transform(data_multi)
output = 1
lag = const.LOOK_BACK
reframed = data_tools.series_to_supervised(scaled, lag, output)
# drop columns we don't want to predict
index_drop = [-j-1 for j in range(data_multi.shape[1] - 1)]
reframed.drop(reframed.columns[index_drop], axis=1, inplace=True)
data_supervised = reframed.values
print("# shape:", reframed.shape)
print(len(data_multi) == len(reframed) + lag)
# print(reframed.head(3))
# split into train and test sets
train_size = int(len(data_supervised) * const.TRAIN_SCALE)
test_size = len(data_supervised) - train_size
train_data, test_data = data_supervised[0:train_size,:], data_supervised[train_size:len(data_multi),:]
print(len(train_data), len(test_data))
print(len(data_supervised) == len(train_data) + len(test_data))
# print(train_data)
# split into input and outputs
train_X, train_Y = train_data[:, :-1], train_data[:, -1]
test_X, test_Y = test_data[:, :-1], test_data[:, -1]
print("# shape:", train_X.shape)
print("# shape:", train_Y.shape)
from sklearn.utils import shuffle
from scipy.sparse import coo_matrix
# shuffle train set (include validation set)
trainX_sparse = coo_matrix(train_X) # sparse matrix
train_X, trainX_sparse, train_Y = shuffle(train_X, trainX_sparse, train_Y, random_state=0)
time_steps = lag
n_lstm_neurons = [8, 16, 32, 64, 128]
# n_lstm_neurons = [8] # for once
n_epoch = networks_factory.EPOCHS
n_batch_size = networks_factory.BATCH_SIZE
# reshape input to be 3D [samples, timesteps, features]
train_X = train_X.reshape((train_X.shape[0], time_steps, train_X.shape[1]//time_steps))
test_X = test_X.reshape((test_X.shape[0], time_steps, test_X.shape[1]//time_steps))
print(train_X.shape, train_Y.shape)
print(test_X.shape, test_Y.shape)
for i, n_lstm_neuron in enumerate(n_lstm_neurons):
print("-----------n_lstm_neuron: %d--------------" % n_lstm_neuron)
s, model = networks_factory.create_lstm_model_dropout(lstm_neurons=n_lstm_neuron, hidden_layers=2,
lenth=time_steps, dims=n_dims, n_out=1)
model.compile(loss='mean_squared_error', optimizer='adam')
history = model.fit(train_X, train_Y, epochs=10, batch_size=n_batch_size, validation_split=const.VALIDATION_SCALE,
verbose=0, callbacks=[networks_factory.ES]) # callbacks=[networks_factory.ES]
print("# Finished Training...")
# make a prediction
train_predict = model.predict(train_X)
test_predict = model.predict(test_X)
# invert predictions
inv_trainP, inv_trainY = data_tools.inv_transform_multi(scaler, train_X, train_predict, train_Y)
inv_testP, inv_testY = data_tools.inv_transform_multi(scaler, test_X, test_predict, test_Y)
# calculate RMSE, MAPE, Dstat
train_rmse = sqrt(mean_squared_error(inv_trainP, inv_trainY))
test_rmse = sqrt(mean_squared_error(inv_testP, inv_testY))
print('Train RMSE: %.4f, Test RMSE: %.4f' % (train_rmse, test_rmse))
train_mape = data_metrics.MAPE(inv_trainP, inv_trainY)
test_mape = data_metrics.MAPE(inv_testP, inv_testY)
print('Train MAPE: %.4f, Test MAPE: %.4f' % (train_mape, test_mape))
train_ds = data_metrics.Dstat(inv_trainP, inv_trainY)
test_ds = data_metrics.Dstat(inv_testP, inv_testY)
print('Train Dstat: %.4f, Test Dstat: %.4f' % (train_ds, test_ds))
print("# All Done!")
五、论文展示
六、项目总结
本研究通过构建基于Hadoop的物联网数据统计分析系统,解决了传统数据处理方法在处理大规模物联网数据时面临的效率低下、数据整合困难以及数据安全性和隐私保护不足等问题。利用Hadoop的分布式计算特性,提高了数据处理速度和效率,实现了更高效的数据整合和管理。同时,通过数据加密、访问控制等措施,有效保护了敏感数据的隐私和安全。本研究成果为物联网数据的处理、整合和管理提供了新的解决方案,有助于更好地利用和挖掘物联网数据中的价值,推动物联网技术的快速发展和应用。