有两种方式实现
方式一:OVF导出导入
这种方式是,在VMware Workstation Pro中创建好虚拟机,并将所需环境配置和优化完毕,然后关闭虚拟机并将其导出为OVF格式镜像,这种镜像是直接可以在ESXI中使用的。
ESXI使用:登陆ESXI客户端 – 文件 – 部署OVF模板 – 上传OVF格式镜像即可。
more >>这种方式是,在VMware Workstation Pro中创建好虚拟机,并将所需环境配置和优化完毕,然后关闭虚拟机并将其导出为OVF格式镜像,这种镜像是直接可以在ESXI中使用的。
ESXI使用:登陆ESXI客户端 – 文件 – 部署OVF模板 – 上传OVF格式镜像即可。
more >>1 | 作用:记录Sqoop命令的配置信息,包括关系型数据库连接地址、用户名、密码、数据库和表等等信息。 |
1 | sqoop job |
–check-column
1 | 用来指定一些列,这些列在导入时用来检查做决定数据是否要被作为增量数据,在一般关系型数据库中,都存在类似Last_Mod_Date的字段或主键。 |
–incremental
1 | 用来指定增量导入的模式(Mode),两种模式为: append(附加/一般是指新增的内容)和lastmodified(最新修改的内容) |
–last-value
1 | 指定上一次导入时,检查列指定字段的最大值 |
数据库名称:bigdata, 表名称: bigdata
1 | MariaDB [bigdata]> select * from bigdata; |
1 | # sqoop import \ |
1 | # sqoop import \ |
先了解下hdfs的超级用户概念
1 | 超级用户即运行name node进程的用户。例如,你使用了root用户启动了name node,那么root就是超级用户。 |
1 | <property> |
注:修改完以上配置后,需要重启namenode hdfs服务
参考:官网配置
more >>1 | sqoop是一款数据转换工具,主要用于在Hadoop(hive)与传统的数据库之间进行数据传递。 |
1 | 截止目前共计2个版本,选择其一即可: |
有时候在ssh客户端下载文件,文件没有达到4GB上限,却下载出现乱码,以致于下载的文件不完整
注:以下解决方法仅限文本文件下载
解决方法-使用-a参数:
1 | -a, --ascii ASCII transfer (change CR/LF to LF) |
1 | sz -a filename |
shell脚本
1 | [root@hostname ~]$ cat scan.sh |
脚本执行
1 | time sh scan.sh [PATH...] |
其他递归需求,可随意变通实现
1 | hadoop fs -rm -skipTrash /path/to/file |
如果不加-skipTrash
,删除的目录会放入/user/hdfs/.Trash
中。同时可以配置垃圾桶选项,设置时间间隔多久后自动清空
1 | $ hadoop fs -expunge |
执行完命令后,回收站的数据不会立即被清理,而是先打了一个checkpoint。提示一分钟后清除。
tag:
缺失模块。
1、请确保node版本大于6.2
2、在博客根目录(注意不是yilia-plus根目录)执行以下命令:
npm i hexo-generator-json-content --save
3、在根目录_config.yml里添加配置:
jsonContent: meta: false pages: false posts: title: true date: true path: true text: false raw: false content: false slug: false updated: false comments: false link: false permalink: false excerpt: false categories: false tags: true