技术标签: flink 未解决的专栏合集 kafka 大数据
一个测试环境,这个环境的资源不足,很卡。
docker外查看下
root@node1 ~]# free -g
total used free shared buff/cache available
Mem: 250 199 3 3 47 44
Swap: 0 0 0
您在 /var/spool/mail/root 中有新邮件
[root@node1 ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
0e54c7ac6567 stupefied_galois
e23340b7b4c3
777f9d78734a
d26183c7b06d
89fc1de7c90a
ca9d3dc93045
5b04a6c90e07
8f97c3256946
330b990f5f7b
adb29b7e5860
45dc7b47e787
0fd97f7809d8
9b15b6bdf463
767a1445897e
68ea719829e1
9e57de952b02
0132cfb90221
f00c295adc4d
ff27f52f55a0
1cbb63f3343e
7c58d554ef7e
97a1781cb762
[root@node1 ~]#
Docker内查看一下
[root@1 /]# free -g
total used free shared buffers cached
Mem: 250 246 4 3 0 41
-/+ buffers/cache: 204 46
Swap: 0 0 0
[root@1 /]#
然后运行flink 1.6.2 任务报错
2020-12-02 09:19:00,281 WARN org.apache.flink.streaming.connectors.kafka.internal.Kafka09Fetcher - Error while closing Kafka consumer
java.lang.NullPointerException
at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerThread.run(KafkaConsumerThread.java:286)
2020-12-02 09:19:00,289 INFO org.apache.flink.runtime.taskmanager.Task - Source: kafkaSource (1/1) (f76005135e137a38ac34ed492de51e03) switched from RUNNING to FAILED.
2020-12-02 09:17:29,512 INFO org.apache.kafka.clients.producer.KafkaProducer - [Producer clientId=producer-3] Closing the Kafka producer with timeoutMillis = 9223372036854775807 ms.
2020-12-02 09:17:29,513 ERROR org.apache.kafka.clients.producer.KafkaProducer - [Producer clientId=producer-3] Interrupted while joining ioThread
java.lang.InterruptedException
at java.lang.Object.wait(Native Method)
at java.lang.Thread.join(Thread.java:1257)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1169)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1146)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1124)
at com.dbapp.es5.sink.KafkaSinkFunction.close(KafkaSinkFunction.java:492)
at org.apache.flink.api.common.functions.util.FunctionUtils.closeFunction(FunctionUtils.java:43)
at org.apache.flink.streaming.api.operators.AbstractUdfStreamOperator.dispose(AbstractUdfStreamOperator.java:117)
at org.apache.flink.streaming.runtime.tasks.StreamTask.disposeAllOperators(StreamTask.java:477)
at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:378)
at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)
at java.lang.Thread.run(Thread.java:745)
2020-12-02 09:17:29,513 INFO org.apache.flink.runtime.taskmanager.Task - Attempting to cancel task Sink: auto esSink (1/1) (48d8f009fc6b9f202ef10ca33daf4b57).
2020-12-02 09:17:29,513 INFO org.apache.kafka.clients.producer.KafkaProducer - [Producer clientId=producer-3] Proceeding to force close the producer since pending requests could not be completed within timeout 9223372036854775807 ms.
2020-12-02 09:17:29,513 INFO org.apache.flink.runtime.taskmanager.Task - Sink: auto esSink (1/1) (48d8f009fc6b9f202ef10ca33daf4b57) switched from RUNNING to CANCELING.
2020-12-02 09:17:29,514 ERROR org.apache.flink.streaming.runtime.tasks.StreamTask - Error during disposal of stream operator.
org.apache.kafka.common.errors.InterruptException: java.lang.InterruptedException
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1171)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1146)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1124)
at com.dbapp.es5.sink.KafkaSinkFunction.close(KafkaSinkFunction.java:492)
at org.apache.flink.api.common.functions.util.FunctionUtils.closeFunction(FunctionUtils.java:43)
at org.apache.flink.streaming.api.operators.AbstractUdfStreamOperator.dispose(AbstractUdfStreamOperator.java:117)
at org.apache.flink.streaming.runtime.tasks.StreamTask.disposeAllOperators(StreamTask.java:477)
at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:378)
at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.InterruptedException
at java.lang.Object.wait(Native Method)
at java.lang.Thread.join(Thread.java:1257)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:1169)
... 9 more
2020-12-02 09:17:29,515 INFO org.apache.flink.runtime.taskmanager.Task - alipha.garbage.mail (1/1) (4d1143d26f1b392bcff31899e4bfc7aa) switched from CANCELING to CANCELED.
2020-12-02 09:17:29,515 INFO org.apache.flink.runtime.taskmanager.Task - Freeing task resources for alipha.garbage.mail (1/1) (4d1143d26f1b392bcff31899e4bfc7aa).
文章浏览阅读1k次。通过使用ajax方法跨域请求是浏览器所不允许的,浏览器出于安全考虑是禁止的。警告信息如下:不过jQuery对跨域问题也有解决方案,使用jsonp的方式解决,方法如下:$.ajax({ async:false, url: 'http://www.mysite.com/demo.do', // 跨域URL ty..._nginx不停的xhr
文章浏览阅读2k次。关于在 Oracle 中配置 extproc 以访问 ST_Geometry,也就是我们所说的 使用空间SQL 的方法,官方文档链接如下。http://desktop.arcgis.com/zh-cn/arcmap/latest/manage-data/gdbs-in-oracle/configure-oracle-extproc.htm其实简单总结一下,主要就分为以下几个步骤。..._extproc
文章浏览阅读1.5w次。linux下没有上面的两个函数,需要使用函数 mbstowcs和wcstombsmbstowcs将多字节编码转换为宽字节编码wcstombs将宽字节编码转换为多字节编码这两个函数,转换过程中受到系统编码类型的影响,需要通过设置来设定转换前和转换后的编码类型。通过函数setlocale进行系统编码的设置。linux下输入命名locale -a查看系统支持的编码_linux c++ gbk->utf8
文章浏览阅读750次。今天准备从生产库向测试库进行数据导入,结果在imp导入的时候遇到“ IMP-00009:导出文件异常结束” 错误,google一下,发现可能有如下原因导致imp的数据太大,没有写buffer和commit两个数据库字符集不同从低版本exp的dmp文件,向高版本imp导出的dmp文件出错传输dmp文件时,文件损坏解决办法:imp时指定..._imp-00009导出文件异常结束
文章浏览阅读143次。当下是一个大数据的时代,各个行业都离不开数据的支持。因此,网络爬虫就应运而生。网络爬虫当下最为火热的是Python,Python开发爬虫相对简单,而且功能库相当完善,力压众多开发语言。本次教程我们爬取前程无忧的招聘信息来分析Python程序员需要掌握那些编程技术。首先在谷歌浏览器打开前程无忧的首页,按F12打开浏览器的开发者工具。浏览器开发者工具是用于捕捉网站的请求信息,通过分析请求信息可以了解请..._初级python程序员能力要求
文章浏览阅读7.6k次,点赞2次,收藏6次。@Service标注的bean,类名:ABDemoService查看源码后发现,原来是经过一个特殊处理:当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致public class AnnotationBeanNameGenerator implements BeanNameGenerator { private static final String C..._@service beanname
文章浏览阅读6.9w次,点赞73次,收藏463次。1.前序创建#include<stdio.h>#include<string.h>#include<stdlib.h>#include<malloc.h>#include<iostream>#include<stack>#include<queue>using namespace std;typed_二叉树的建立
文章浏览阅读7.1k次。在Asp.net上使用Excel导出功能,如果文件名出现中文,便会以乱码视之。 解决方法: fileName = HttpUtility.UrlEncode(fileName, System.Text.Encoding.UTF8);_asp.net utf8 导出中文字符乱码
文章浏览阅读2.1k次,点赞4次,收藏23次。第一次实验 词法分析实验报告设计思想词法分析的主要任务是根据文法的词汇表以及对应约定的编码进行一定的识别,找出文件中所有的合法的单词,并给出一定的信息作为最后的结果,用于后续语法分析程序的使用;本实验针对 PL/0 语言 的文法、词汇表编写一个词法分析程序,对于每个单词根据词汇表输出: (单词种类, 单词的值) 二元对。词汇表:种别编码单词符号助记符0beginb..._对pl/0作以下修改扩充。增加单词
文章浏览阅读773次。我在使用adb.exe时遇到了麻烦.我想使用与bash相同的adb.exe shell提示符,所以我决定更改默认的bash二进制文件(当然二进制文件是交叉编译的,一切都很完美)更改bash二进制文件遵循以下顺序> adb remount> adb push bash / system / bin /> adb shell> cd / system / bin> chm..._adb shell mv 权限
文章浏览阅读6.8k次,点赞12次,收藏125次。1. 单目相机标定引言相机标定已经研究多年,标定的算法可以分为基于摄影测量的标定和自标定。其中,应用最为广泛的还是张正友标定法。这是一种简单灵活、高鲁棒性、低成本的相机标定算法。仅需要一台相机和一块平面标定板构建相机标定系统,在标定过程中,相机拍摄多个角度下(至少两个角度,推荐10~20个角度)的标定板图像(相机和标定板都可以移动),即可对相机的内外参数进行标定。下面介绍张氏标定法(以下也这么称呼)的原理。原理相机模型和单应矩阵相机标定,就是对相机的内外参数进行计算的过程,从而得到物体到图像的投影_相机-投影仪标定
文章浏览阅读2.2k次。文章目录Wayland 架构Wayland 渲染Wayland的 硬件支持简 述: 翻译一篇关于和 wayland 有关的技术文章, 其英文标题为Wayland Architecture .Wayland 架构若是想要更好的理解 Wayland 架构及其与 X (X11 or X Window System) 结构;一种很好的方法是将事件从输入设备就开始跟踪, 查看期间所有的屏幕上出现的变化。这就是我们现在对 X 的理解。 内核是从一个输入设备中获取一个事件,并通过 evdev 输入_wayland