崖山知识库_51CTO博客
本文内容来自YashanDB官网概述本文主要介绍DolphinScheduler调度器适配Python驱动,支持在DolphinScheduler上通过python任务访问数据。 环境DolphinScheduler版本:3.1.9Python版本:3.9YashanDB版本:23.2.2.100YashanDB Python驱动版本:yaspy-1.0.0-cp39-cp39
本文内容来自YashanDB官网问题:较早版本mybatis-plus识别数据类型是通过jdbc url识别的,访问数据就会出现报数据类型不支持的错误:java.lang.IllegalStateException: dbType not support : null, url jdbc:jdbc:yasdb://192.168.0.1:1688/yashandb解决办法:增加数据类型配
本文内容来自YashanDB官网将yashandb-jdbc-1.5.1.jar打包进mavan本地仓库mvn install:install-file -Dfile=F:\developRE\yashan\dbeaver-for-yashandb-23.1-win32\win32\x86_64\dbeaver\configuration\org.eclipse.osgi\258\0\.cp\dr
本文内容来自YashanDB官网,具体内容请见(https://www.yashandb.com/newsinfo/7488286.html?templateId=1718516)测试验证环境说明测试用例说明1、相同版本下,新增表数据量,使统计信息失效。优化器优先使用outline的计划。2、相同版本下,绑定参数执行场景下,优化器优先使用outline的计划。3、单机主备环境,优化器优先使用out
本文内容来自YashanDB官网**【问题分类】**功能兼容**【关键字】**YAS-07202、YAS\_MY ERROR ,不兼容【问题描述】本项目的架构是hadoop+hive+yashandb使用数据,将mysql相关的创建表语句进行初始化同步使用23.3版本兼容mysql数据,新建表和查询表都出现问题查询报错mysql> SELECT DISTINCT 'org.apa
本文内容来自YashanDB官网**【问题分类】**功能兼容**【关键字】**spark 30041、不兼容【问题描述】本项目的架构是hadoop+hive+yashandb使用数据,初始化所有的原数据表和数据新建表之后,插入数据时候报错,hadoop code 30041 sparktask【问题原因分析】综合分析如下可能性,逐一排查关于Hadoop中出现的错误代码30041,特别是在使用
【问题分类】功能兼容【关键字】YAS-07202、YAS\_MY ERROR,bit【问题描述】本项目的架构是hadoop+hive+yashandb使用数据,将mysql相关的创建表语句进行初始化同步使用23.3版本兼容mysql数据,新建表和查询表都出现问题查询报错mysql> SELECT DISTINCT 'org.apache.hadoop.hive.metastore
原创 1月前
73阅读
概述本文主要介绍通过flink cdc实现oracle数据实时同步到,支持全量和增量,DML支持新增、修改和删除。 环境JDK版本:11Flink版本:1.18.1flink-sql-connector-oracle-cdc版本:3.1.1flink-connector-yashandb版本:1.18.1.1Streampark版本:2.1.4YMP版本:23.2.1.5源Oracl
概述本文主要介绍通过Datax实现Hive数据迁移到分布式。 环境源Hive版本:3.1.3目标YashanDB版本:23.2.3.100 建表脚本-- hiveCREATE TABLE IF NOT EXISTS product(    product_no char(5),    produ
【问题分类】功能兼容【关键字】spark 30041、不兼容【问题描述】本项目的架构是 hadoop+hive+yashandb使用数据,初始化所有的原数据表和数据新建表之后,插入数据时候报错,hadoop code 30041 sparktask【问题原因分析】综合分析如下可能性,逐一排查关于 Hadoop 中出现的错误代码 30041,特别是在使用 Spark 作为 Hive 的执行引擎
原创 1月前
56阅读
本文内容来自YashanDB官网,原文内容请见 https://www.yashandb.com/newsinfo/7849008.html?templateId=1718516【问题分类】功能使用【关键字】hadoop,hive,YAS-02058【问题描述】hive初始化报错:0: jdbc:yasdb://192.168.xxx.xxx:1688/hive> CREATE TABL
本文内容来自YashanDB官网本方案采用csv文件格式进行数据的导出和导入。具体步骤如下:通过sql语句将Doris表导出成csv文件注:导出到本地文件时需要先在fe.conf中配置enable_outfile_to_local=true并重启fe节点-- Doris默认查询超时时长为3600秒,此处改大,防止查询时间不够set query_timeout = 36000;&
本文内容来自YashanDB官网本方案采用csv文件格式进行数据的导出和导入。具体步骤如下:通过sql语句将Doris表导出成csv文件注:导出到本地文件时需要先在fe.conf中配置enable_outfile_to_local=true并重启fe节点\-- Doris默认查询超时时长为3600秒,此处改大,防止查询时间不够 set query\_timeout = 36000; -- 设
问题描述springboot应用启动报找不到jdbc驱动错误,但去应用lib目录下发现驱动文件yashandb-jdbc-1.6.9.jar是有的:Caused by: java.lang.ClassNotFoundException: com.yashandb.jdbc.Driverat java.net.URLClassLoader.findClass(URLClassLoader.jav
【标题】YMP从mysql迁移到,报错:服务器错误【问题分类】数据导入导出【关键字】数据同步,YMP V23.3.1.0,数据迁移,服务器报错【问题描述】YMP V23.3.1.0 从mysql迁移到,报错:服务器报错页面操作,从评估到参数配置都正常,到离线迁移哪一步的发起按钮就失败了,无法选择开始离线迁移页面报错 服务器报错可以回退评估,可以迁移配置,无法下一步从网络层的报错看 net:
原创 1月前
71阅读
**【问题分类】**功能使用**【关键字】**char,char(1)**【问题描述】**MySQL迁移至环境,字段类型源端和目标端都为char(2),但应用存储的数据为'0'、'1',此时山查询该表字段时会自动补充空格**【问题原因分析】**mysql有sql_mode控制,检查是否启用了 PAD_CHAR_TO_FULL_LENGTH SQL 模式。如果启用了这个模式,MySQL 才会保
【问题分类】功能使用【关键字】char,char(1)【问题描述】MySQL 迁移至环境,字段类型源端和目标端都为 char(2),但应用存储的数据为'0'、'1',此时山查询该表字段时会自动补充空格【问题原因分析】mysql 有 sql_mode 控制,检查是否启用了 PAD_CHAR_TO_FULL_LENGTH SQL 模式。如果启用了这个模式,MySQL&nbsp
原创 2月前
58阅读
【问题分类】数据导入导出【关键字】数据同步,kettle,数据迁移,pg_hba.conf【问题描述】使用 kettle 同步 postgresql 至数据时提示以下报错信息:信息: New Caching Service registered 2024/10/10 17:00:21 - Pan - 开始运行. 2024/10/10 17:00:21 - public.T1 - 为了
原创 2月前
61阅读
【问题分类】数据导入导出【关键字】数据同步,kettle,数据迁移,pg_hba.conf【问题描述】使用kettle同步postgresql至数据时提示以下报错信息:【问题原因分析】pg_hba.conf 文件中没有正确配置允许从 IP 地址 连接到数据的规则。pg_hba.conf 文件是 PostgreSQL 中用于控制客户端认证的配置文件,它定义了哪些主机、哪些用户以及通过何种认证
数据
原创 2022-10-24 19:12:46
10000+阅读
  • 1
  • 2
  • 3
  • 4
  • 5