https://q2.qlogo.cn/headimg_dl?dst_uin=1057372918&spec=100

kamisamak'BLOG

0.0

给kamisamak'BLOG打分

start start start start start

感谢您打了2

详情

全站展示位

推荐

概率论与数理统计资料分享kamik的博客

抱歉,只有登录并在本文发表评论才能阅读隐藏内容

Java内存结构kamik的博客

在 Java 虚拟机规范中,定义了五种运行时数据区,分别是 Java 堆、方法区、虚拟机栈、本地方法区、程序计数器 抱歉,只有登录并在本文发表评论才能阅读隐藏内容 堆内存 堆是OOM故障最主要的发生区域,Java 堆是所有线程共享的,它在虚拟机启动时就会被创建 Java 堆是内存空间占据的最大一块区域了,Java 堆是用来存放对象实例及数组,也就是说我们代码中通过 new 关键字 new 出来的对象都存放在这里,存储着几乎所有的实例对

基于Ambari的大数据平台搭建(HDP)kamik的博客

简介 Apache Ambari 支持HDFS、MapReduce、Hive、Pig、Hbase、Zookeper、Sqoop和Hcatalog等的集中管理,类似于CDH,是一个集中部署、管理、监控 Hadoop 分布式集群的工具,主要由Ambari Server 和 Ambari Agent构成,支持Kerberos安全管理。 官网:

心灵鸡汤

励志故事、跳 槽

  A对B说:“我要离开这个公司。我恨这个公司!”

  B建议道:“我举双手赞成你报复! 破公司一定要给它点颜色看看。不过你现在离开,还不是最好的时机。”

  A问:???

  B说:“如果你现在走,公司的损失并不大。你应该趁着在公司的机会,拼命去为自己拉一些客户,成为公司独挡一面的人物,然后带着这些客户突然离开公司,公司才会受到重大损失,非常被动。”

  A觉得B说的非常在理。于是努力工作,事遂所愿,半年多的努力工作后,他有了许多的忠实客户。

  再见面时B问A:现在是时机了,要跳赶快行动哦!

  A淡然笑道:老总跟我长谈过,准备升我做总经理助理,我暂时没有离开的打算了。

  其实这也正是B的初衷。

  心得:一个人的工作,永远只是为自己的简历。只有付出大于得到, 让老板真正看到你的能力大于位置,才会给你更多的机会替他创造更多利润。

列表展示

主站展示位

Spark 各项代码示例kamik的博客

SparkSql向mysql建表 写数据 查询操作 val sparkConf: SparkConf = new SparkConf().setMaster('local[*]').setAppName('wula') val sparkContext = new SparkContext(sparkConf) //设置日志等级 sparkContext.setLogLevel('warn') MySql建表

Kafka知识点总结kamik的博客

Kafka知识点总结 Kafka生态系统四大角色,生产者(Producer)、kafka集群(Broker)、消费者(Consumer)、zookeeper 每个消费者都必须属于一个消费组,一个组内的消费者可以多个。 一个Topic可以有1到多个多个分区(Partition) 一个分区可以有1到多个segment。 每个segment可以有由一个log和一个index组成。 被复制的分区叫做主副本(Lead

CDH安装Hadoop权限问题kamik的博客

如遇到put: Permission denied: user=root, access=WRITE, inode='/':hdfs:supergroup:drwxr-xr-x 执行 sudo -u hdfs hadoop fs -mkdir /user/root groupadd supergroup usermod -a -G supergroup root su - hdfs -s /bin/bash -c 'hdfs dfsad

Samba配置文件常用参数详解kamik的博客

Samba配置文件常用参数详解 Samba的主配置文件叫smb.conf,默认在/etc/samba/目录下。 smb.conf含有多个段,每个段由段名开始,直到下个段名。每个段名放在方括号中间。每段的参数的格式是:名称=指。配置文件中一行一个段名和参数,段名和参数名不分大小写。 除了[global]段外,所有的段都可以看作是一个共享资源。段名是该共享资源的名字,段里的参数是该共享资源的属性。 Samba安装好后,使用testparm命

通过Python urllib爬取中图网kamik的博客

抱歉,只有登录并在本文发表评论才能阅读隐藏内容

HiveSQL 系统内存分配问题处理kamik的博客

[INFO] 2021-04-26 18:18:52.147 - [taskAppld=TASK-51-2469-19327]:[127] - -> Ended Job = job 1619390628176 0017 with errors Error during job, obtaining debugging information. Examining task ID: task 1619390628176_0017_m_00

Centos禁用透明大页面压缩kamik的博客

首先查看透明大页是否启用,[always] never表示已启用,always [never]表示已禁用 cat /sys/kernel/mm/transparent_hugepage/enabled [always] madvise never 如果是启用状态,修改/etc/rc.d/rc.local文件并添加以下两行 echo never > /sys/kernel/mm/transparent_hugepage/defra

基于 Numba 的 CUDA Python 编程简介【加速计算基础——CUDA Python】kamik的博客

摘要使用 Numba 从NumPy ufuncs 编译 CUDA 核函数 使用 Numba 创建和启动自定义 CUDA 核函数 应用关键的GPU内存管理技术 基于 Numba 的 CUDA Python 编程简介**[CUDA](]

Spark 高级案例①kamik的博客

各位客官点击就知道了!

Cloudera CDH 6.3.2 Centos7离线安装kamik的博客

CDH,全称Cloudera's Distribution, including Apache Hadoop。是Hadoop众多分支中对应中的一种,由Cloudera维护,基于稳定版本的Apache Hadoop构建,提供了Hadoop的核心(可扩展存 储、分布式计算),最为重要的是提供基于web的用户界面。 CDH的优点:版本划分清晰,更新速度快,支持Kerberos安全认证,支持多种安装方式(如Yum、rpm等)。 CDH分为Clo

Kerberos入坑指南kamik的博客

抱歉,只有登录并在本文发表评论才能阅读隐藏内容

OpenCore引导时AppleIntelCPUPowerManagement报错[Hackintosh]kamik的博客

可将NullCPUPowerManagement.kext放入EFI\OC\Kexts目录下 可通过OCAT或其他工具编辑OpenCore的config.plist文件,Kernel内添加该项内核扩展

OpenCore引导时AppleIntelCPUPowerManagement报错[Hackintosh]kamik的博客

可将NullCPUPowerManagement.kext放入EFI\OC\Kexts目录下 可通过OCAT或其他工具编辑OpenCore的config.plist文件,Kernel内添加该项内核扩展

分享下自己的Windows Terminal配置kamik的博客

// This file was initially generated by Windows Terminal (Preview) 1.0.1402.0 // It should still be usable in newer versions, but newer versions might have additional // settings, help text, or changes that you will not

LeetCode算法题目011 : 盛最多水的容器kamik的博客

给你 n 个非负整数 a1,a2,...,an,每个数代表坐标中的一个点 (i, ai) 。在坐标内画 n 条垂直线,垂直线 i 的两个端点分别为 (i, ai) 和 (i, 0)。找出其中的两条线,使得它们与 x 轴共同构成的容器可以容纳最多的水。 说明:你不能倾斜容器,且 n 的值至少为 2。 图中垂直线代表输入数组 [1,8,6,2,5,4,8,3,7]。在此情况下,容器能够容纳水(表示为蓝色部分)的最大值为 49。 示例: 输

在Centos8下安装Dockerkamik的博客

系统版本 [root@iZzmul0jih2lenZ ~]# lsb_release -a LSB Version: :core-4.1-amd64:core-4.1-noarch Distributor ID: CentOS Description: CentOS Linux release 8.1.1911 (Core) Release: 8.1.1911 Codename: Core 安装

SparkContext详解kamik的博客

简介 SparkContext是spark功能的主要入口。其代表与spark集群的连接,能够用来在集群上创建RDD、累加器、广播变量。每个JVM里只能存在一个处于激活状态的SparkContext,在创建新的SparkContext之前必须调用stop()来关闭之前的SparkContext。 每一个Spark应用都是一个SparkContext实例,可以理解为一个SparkContext就是一个spark application的

博客寄语:

    很高兴遇到你,这里是kamisamak,22岁,刚毕业,正在不断学习。

实时播报:

博客号-学习成长

相信每一分耕耘都有每一分收获,致力帮助博客主所创作的博客能更快的被收录! 如果有其它需求,可联系下方邮箱。