https://q2.qlogo.cn/headimg_dl?dst_uin=1057372918&spec=100

kamisamak'BLOG

0.0

给kamisamak'BLOG打分

start start start start start

感谢您打了2

详情

全站展示位

kafka错误处理 ERROR kafka.server.KafkaApis: [KafkaApi-83] Number of alive brokers '2' does not meet the required replication factor '3' for the offsets topic (configured via 'offsets.topic.replication.factor'). This error can be ignored if the cluster is star

ERROR kafka.server.KafkaApis: [KafkaApi-83] Number of alive brokers '2' does not meet the required replication factor '3' for the offsets topic (configured via 'offsets.topic.replication.factor'). This error can be ignor。。。

推荐

概率论与数理统计资料分享kamik的博客

抱歉,只有登录并在本文发表评论才能阅读隐藏内容

Java内存结构kamik的博客

在 Java 虚拟机规范中,定义了五种运行时数据区,分别是 Java 堆、方法区、虚拟机栈、本地方法区、程序计数器 抱歉,只有登录并在本文发表评论才能阅读隐藏内容 堆内存 堆是OOM故障最主要的发生区域,Java 堆是所有线程共享的,它在虚拟机启动时就会被创建 Java 堆是内存空间占据的最大一块区域了,Java 堆是用来存放对象实例及数组,也就是说我们代码中通过 new 关键字 new 出来的对象都存放在这里,存储着几乎所有的实例对

基于Ambari的大数据平台搭建(HDP)kamik的博客

简介 Apache Ambari 支持HDFS、MapReduce、Hive、Pig、Hbase、Zookeper、Sqoop和Hcatalog等的集中管理,类似于CDH,是一个集中部署、管理、监控 Hadoop 分布式集群的工具,主要由Ambari Server 和 Ambari Agent构成,支持Kerberos安全管理。 官网:

心灵鸡汤

哲理小故事、佛塔上的老鼠

  一只四处漂泊的老鼠在佛塔顶上安了家。

  佛塔里的生活实在是幸福极了,它既可以在各层之间随意穿越,又可以享受到丰富的供品。它甚至还享有别人所无法想象的特权,那些不为人知的秘笈,它可以随意咀嚼;人们不敢正视的佛像,它可以自由休闲,兴起之时,甚至还可以在佛像头上留些排泄物。

  每当善男信女们烧香叩头的时候,这只老鼠总是看着那令人陶醉的烟气,慢慢升起,它猛抽着鼻子,心中暗笑:“可笑的人类,膝盖竟然这样柔软,说跪就跪下了!”

  有一天,一只饿极了的野猫闯了进来,它一把将老鼠抓住。

  “你不能吃我!你应该向我跪拜!我代表着佛!”这位高贵的俘虏抗议道。

  “人们向你跪拜,只是因为你所占的位置,不是因为你!”

  野猫讥讽道,然后,它像掰开一个汉堡包那样把老鼠掰成了两半。

  【人生感悟】人生中,很多人都有得意的时候,要客观地想一想,别人对你毕恭毕敬时,是因为你自身的人格、学识,恩德,还是因为你临时所处的位置。

列表展示

主站展示位

Spark 各项代码示例kamik的博客

SparkSql向mysql建表 写数据 查询操作 val sparkConf: SparkConf = new SparkConf().setMaster('local[*]').setAppName('wula') val sparkContext = new SparkContext(sparkConf) //设置日志等级 sparkContext.setLogLevel('warn') MySql建表

CDH安装Hadoop权限问题kamik的博客

如遇到put: Permission denied: user=root, access=WRITE, inode='/':hdfs:supergroup:drwxr-xr-x 执行 sudo -u hdfs hadoop fs -mkdir /user/root groupadd supergroup usermod -a -G supergroup root su - hdfs -s /bin/bash -c 'hdfs dfsad

Samba配置文件常用参数详解kamik的博客

Samba配置文件常用参数详解 Samba的主配置文件叫smb.conf,默认在/etc/samba/目录下。 smb.conf含有多个段,每个段由段名开始,直到下个段名。每个段名放在方括号中间。每段的参数的格式是:名称=指。配置文件中一行一个段名和参数,段名和参数名不分大小写。 除了[global]段外,所有的段都可以看作是一个共享资源。段名是该共享资源的名字,段里的参数是该共享资源的属性。 Samba安装好后,使用testparm命

通过Python urllib爬取中图网kamik的博客

抱歉,只有登录并在本文发表评论才能阅读隐藏内容

Elasticsearch7.7数据库 集群部署&入门kamik的博客

安装部署 前置需求 JDK6+(被监控的应用程序运行在jdk6及以上版本) JDK8+(SkyWalking collector和WebUI部署在jdk8及以上版本) Elasticsearch 5.x(集群模式或不使用) Zookeeper 3.4.10 被监控应用的宿主服务器系统时间(包含时区)与collectors,UIs部署的宿主服务器时间设置正确且相同

HiveSQL 系统内存分配问题处理kamik的博客

[INFO] 2021-04-26 18:18:52.147 - [taskAppld=TASK-51-2469-19327]:[127] - -> Ended Job = job 1619390628176 0017 with errors Error during job, obtaining debugging information. Examining task ID: task 1619390628176_0017_m_00

VirtualBoxkamik的博客

各位客官点击就知道了!

Apache DolphinScheduler集群 1.3.3部署记录kamik的博客

<!doctype html> 环境依赖 PostgreSQL (8.2.15+) 或 MySQL (5.7系列) JDK (1.8+) ZooKeeper (3.4.6+) Hadoop (2.6+) 创建部署用户和hosts映射 在所有部署调度的机器上创建部署用户,并且一定要配置sudo免密。假如我们计划在ds1,ds2,ds3,ds4这4台机器上部署调度,首先需要在每台机器上都创建部署用户 # 创建用户需使用root登

如何在HP ProLiant DL360 G6组RAIDkamik的博客

方法一: 重启服务器,提示阵列卡时,按 F8 进入阵列卡的配置页面。Create Logical Drive 创建阵列 View Logical Driver 查看阵列 Delete Logical Driver 删除阵列 Select as Boot Controller 将阵列卡设置为机器的第一个引导设备 进入'Create Logical Drive'的界面,可以看到4部分的信息 ①Available Physical Dri

Spark 高级案例①kamik的博客

各位客官点击就知道了!

百度地图API地理编码服务JAVA代码kamik的博客

public static String getLnglat(String address, String AMAPkey) { //'

Linux更换为本地yum源kamik的博客

①挂载镜像到 /mnt/cdrom   mkdir /mnt/cdrom ISO镜像临时挂载 : mount -o loop ISO镜像 /mnt/cdrom 光驱临时挂载       : mount /dev/sr0 /mnt/cdrom ISO镜像开机自动挂载:更改etc下fstab文件 /root/CentOS-6.9-x86_64-bin-DVD1.iso /mnt/cdrom iso9660 loop,defau

分享下自己的Windows Terminal配置kamik的博客

// This file was initially generated by Windows Terminal (Preview) 1.0.1402.0 // It should still be usable in newer versions, but newer versions might have additional // settings, help text, or changes that you will not

MapReduce高级案例①①kamik的博客

WordCount案例 数据 hello world dog fish hadoop spark hello world dog fish hadoop spark hello world dog fish hadoop spark 统计一堆文件中单词出现的个数(WordCount案例) 在一堆给定的文本文件中统计输出每一个单词出现的总次数 ruaDriver package com.kami.demo04; import o

博客寄语:

    很高兴遇到你,这里是kamisamak,22岁,刚毕业,正在不断学习。

实时播报:

博客号-学习成长

相信每一分耕耘都有每一分收获,致力帮助博客主所创作的博客能更快的被收录! 如果有其它需求,可联系下方邮箱。