Docs/大数据/基础介绍.md
2022-10-18 16:59:37 +08:00

98 lines
No EOL
6.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

## 当前你们公司使用的Hadoop版本是什么
## HDFS常见的数据压缩格式有哪些介绍其中一种详细的实现方式
```
是否压缩数据以及使用何种压缩格式对性能具有重要的影响。在数据压缩上,需要考虑的最重要的两个方面是 MapReduce 作业和存储在 HBase 中的数据。在大多数情况下,每个的原则都类似。
您需要平衡压缩和解压缩数据所需的能力、读写数据所需的磁盘 IO以及在网络中发送数据所需的网络带宽。正确平衡这些因素有赖于集群和数据的特征以及您的使用模式。
如果数据已压缩(例如 JPEG 格式的图像),则不建议进行压缩。事实上,结果文件实际上可能大于原文件。
GZIP 压缩使用的 CPU 资源比 Snappy 或 LZO 更多但可提供更高的压缩比。GZIP 通常是不常访问的冷数据的不错选择。而 Snappy 或 LZO 则更加适合经常访问的热数据。
BZip2 还可以为某些文件类型生成比 GZip 更多的压缩但是压缩和解压缩时会在一定程度上影响速度。HBase 不支持 BZip2 压缩。
Snappy 的表现通常比 LZO 好。应该运行测试以查看您是否检测到明显区别。
对于 MapReduce如果您需要已压缩数据可拆分BZip2、LZO 和 Snappy 格式都可拆分,但是 GZip 不可以。可拆分性与 HBase 数据无关。
对于 MapReduce您可压缩中间数据、输出或二者。相应地调整您为 MapReduce 作业提供的参数。以下示例压缩中间数据和输出。MR2 先显示,然后显示 MR1。
1.gzip压缩
优点:
压缩率比较高,而且压缩/解压速度也比较快;
hadoop本身支持在应用中处理gzip格式的文件就和直接处理文本一样
有hadoop native库
大部分linux系统都自带gzip命令使用方便。
缺点不支持split。
应用场景:
当每个文件压缩之后在130M以内的1个块大小内都可以考虑用gzip压缩格式。譬如说一天或者一个小时的日志压缩成一个gzip文件运行mapreduce程序的时候通过多个gzip文件达到并发。
hive程序streaming程序和java写的mapreduce程序完全和文本处理一样压缩之后原来的程序不需要做任何修改。
2.lzo压缩
优点:
压缩/解压速度也比较快,合理的压缩率;
支持split是hadoop中最流行的压缩格式
支持hadoop native库
可以在linux系统下安装lzop命令使用方便。
缺点:
压缩率比gzip要低一些
hadoop本身不支持需要安装
在应用中对lzo格式的文件需要做一些特殊处理为了支持split需要建索引还需要指定inputformat为lzo格式
应用场景:
一个很大的文本文件压缩之后还大于200M以上的可以考虑而且单个文件越大lzo优点越明显。
3.snappy压缩
优点:
高速压缩速度和合理的压缩率;
支持hadoop native库。
缺点:
不支持split
压缩率比gzip要低
hadoop本身不支持需要安装
linux系统下没有对应的命令。
应用场景:
当mapreduce作业的map输出的数据比较大的时候作为map到reduce的中间数据的压缩格式
或者作为一个mapreduce作业的输出和另外一个mapreduce作业的输入。
4.bzip2压缩
优点:
支持split
具有很高的压缩率比gzip压缩率都高
hadoop本身支持但不支持native
在linux系统下自带bzip2命令使用方便。
缺点:
压缩/解压速度慢;
不支持native。
应用场景:
适合对速度要求不高但需要较高的压缩率的时候可以作为mapreduce作业的输出格式
或者输出之后的数据比较大,处理之后的数据需要压缩存档减少磁盘空间并且以后数据用得比较少的情况;
或者对单个很大的文本文件想压缩减少存储空间同时又需要支持split而且兼容之前的应用程序即应用程序不需要修改的情况。
作者VentLam
链接https://www.jianshu.com/p/b50bc3f8819c
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
```
## HDFS垃圾回收的时间模式是多久如何修改该时间
## HDFS如何生效机架感知取消机架感知有什么问题
## HDFS常见的运维操作有哪些哪些操作是高危的如果高危操作出现问题如何解决
## HDFS常见的故障是什么如何处理是否可以给出三种预案来防范大部分常见故障
## 你经历过哪些严重的Hadoop故障
## HDFS常用的IO压力测试工具有哪些
## Hadoop哪些地方依赖于主机名是否可以全部替换为IP呢HDFS/YARN/SPARK
## HDFS有哪些核心的指标需要采集和监控最重要的三个指标是什么
## HDFS节点下线如何提升其下线速度
## HDFS常见的误删除数据场景以及如何防止数据被误删除
## HDFS集群对外提供的访问方式有几种哪种最为常见每种方式各自的优缺点和使用场景
## HDFS你做过哪些性能调优哪些是通用的哪些是针对特定场景的
## Hadoop日常的运维操作有什么管理工具已经搭建的集群如何使用ambari
## Hadoop各类角色如何进行扩容缩容节点迁移IP变更
## Hadoop各类角色的JVM参数配置如何设定
## HDFS的block大小如何设置取决于哪些因素
## YARN的nodemanager上跑任务的时候有时候会将磁盘全部打满如何解决
## HDFS集群多个业务方使用时如何提前做好运维规划如权限配额流量突增数据安全目录结构
## HDFS中小文件的定义是什么如何对小文件进行统计分析如何优化该问题
## HDFS的namenode如何进行主备切换
## YARN的nodemanager导致机器死机如何解决
## 如何下线YARN的nodemanager节点假如该节点持续在运行计算任务
## YARN的nodemanager节点从Active Nodes转为Lost Nodes有哪些原因在哪里设置
## YARN的nodemanager节点如果转为Lost Nodes后该节点上的计算任务是否还会正常继续
## HDFS的快照原理简要介绍一下为什么可以确保数据的安全性
## YARN的yarn.nodemanager.local-dirs和yarn.nodemanager.log-dirs参数应该如何设置有哪些常见的问题
## distcp拷贝数据的时候出现了java.lang.outofmemoryerror:java heap space如何处理
## 有两个hadoop集群机器相同磁盘占用相同一个集群磁盘的使用率比较均匀另一个集群磁盘使用率起伏较大很多写满的很多使用率很低的那么第二个集群会有哪些问题
## hdfs namenode启动慢常见的原因有哪些如何优化
## hadoop的hdfs、yarn配置的zookeeper是否可以分开