问题总结:
程序栈太小,64位机器的栈大小默认比32位的大,将程序从64放到32中执行则报错,需要修改初始堆栈大小
(.so库中提供两个函数接口,一个里面使用的是尺寸较大的图像,另一个处理的图像很小,只有调用前一个函数的时候会溢出)
最后的问题转化为:如何设置JVM的native lib stack size
hadoop中节点的JVM配置在mapred.child.java.opts参数中!
之前在hadoop程序中利用jni调用了C语言写的(libxxx.so)本地库,在开始的机器上(64位Ubuntu)上运行正常,但是复制到另一个(32位Ubuntu)集群中
运行总是报错:
An irrecoverable stack overflow has occurred.
Please check if any of your loaded .so files has enabled executable stack (see man page execstack(8))
# A fatal error has been detected by the Java Runtime Environment:
# JRE version: Java(TM) SE Runtime Environment (7.0_71-b14) (build 1.7.0_71-b14)
# Java VM: Java HotSpot(TM) Server VM (24.71-b01 mixed mode linux-x86 )
# Failed to write core dump. Core dumps have been disabled. To enable core dumping, try "ulimit -c unlimited" before starting Java again
eclipse中指出的错误主要是3点:
- libxxx.so库堆栈溢出
- 建议linux下使用execstack设置libxxx.so需要运行stack
- core dump被禁止,建议ulimit -c unlimited
首先猜想是不是.so文件没有添加执行权限:
于是sudo chmod a+x,但是发现还是不行。
于是按照错误提示从后向前在网上搜索了一些解决方法:
1.关于ulimit:http://www.cnblogs.com/leaven/archive/2011/04/22/2024539.html,ulimit -c unlimited设置完之后发现没什么用。
2.关于execstack,需要首先sudo apt-get install execstack进行安装:
自己利用jni方式编译成的libxxx.so原本都是
- /usr/lib/libTest.so
发现文件没有设置execute stack 于是:execstack -s /usr/lib/libTest.so
但是还是没效果,程序依然报错。
3. 最后将重点放到设置java VM虚拟机分配的栈大小上。
关于程序栈大小的设置
不同的操作系统不同,下面是windows下和linux下的区别。另外系统本身栈的大小的设置和JVM虚拟机的栈大小设置也不同!
- windows平台下堆栈的大小可以包含在可执行文件里(通过VS的选项进行设置,gcc不行)
- linux平台下堆栈大小与编译器是无关的,只能通过配置文件设置。
http://myswirl.blog.163.com/blog/static/51318642201211341436611/
设置完成重启之后总是无法生效,又变回了默认的设置。
JVM栈大小设置:
看了几篇关于vm参数设置的网页:
- (Terminal,Eclipse,Tomcat中JVM栈大小的设置)
- (很详细的mapred.child.java.opts讲解)http://www.aboutyun.com/thread-7524-1-1.html
- (配置JVM堆栈大小的具体方法)http://developer.51cto.com/art/201009/227419.htm
- (各种详细的参数)http://developer.51cto.com/art/200907/135160.htm
- (提到了64位机器>32位机器)http://www.blogjava.net/chenhui7502/archive/2011/08/18/356755.html
- (eclipse中成功设置参数)
- (JVM内存讲解)
方法: java -Xss512K yourJavaClass
于是直接在eclipse中的Run->Run Configurations中设置VM的参数:
OK!上述修改方法仅在当前工程有效,如果想对所有的工程生效,在jre配置中修改:window->preference->Java->installed JREs->Edit
-->
这样一来在eclipse中的java程序的栈就满足要求了,但是对于hadoop的分布式节点,还是栈溢出stackoverflow.
在各个节点hadoop的配置文件mapred-site.xml中添加配置:
启动hadoop任务但是问题依然存在。!!!
问题一直没有解决,今天又用Google搜索了一下,发现搜索结果的质量很高!终于找到答案了!
Hadoop中的配置子节点JVM的最大小和栈大小(-Xss):
http://qnalist.com/questions/356267/setting-thread-stack-size-for-child-jvm
(You could add "-Xss" to the "mapred.child.java.opts" configuration setting.
That's controlling the Java stack size, which I think is the relevant bit for you.)
不知道为什么直接在hadoop配置文件中修改没有生效,在eclipse程序中添加如下代码:
这样就生效了,分布式执行成功。^.^
搜索中的经验:将hadoop和JVM栈 合起来搜索, 直接搜索关键字STACKSIZE
- 把握大方向,把有关的问题分开搜索,了解基础知识
- 把有关问题合起来搜索,这样答案更接近自己的问题
- 在已经获得相关知识后,猜测只要出现问题答案,其中必然会(或可能会)包含的关键词,进行关键词猜测式搜索
其他待学习的文档:
JVM内存配置详解:http://www.open-open.com/lib/view/open1324736648468.html
JVM参数在不同应用场景中的设置:http://blog.sina.com.cn/s/blog_707577700100vy4m.html
JVM启动参数设置:http://blog.sina.com.cn/s/blog_594058420100efss.html
eclipse中和windows中设置JVM栈大小的方法:http://blog.sina.com.cn/s/blog_6dda602101015j83.html
程序测试JVM的堆和栈:http://www.iteye.com/problems/72713
TOMCAT中配置JVM参数:
优化相关:
hadoop相关配置:
hadoopJVM堆大小设置优化 http://charlie072.blog.51cto.com/1334034/1414407
hadoop 配置项的调优 http://blog.sina.com.cn/s/blog_6a67b5c50100vop9.html
Hadoop MapReduce之任务启动(child JVM启动) (代码分析)
hadoop java配置:http://shift-alt-ctrl.iteye.com/blog/2098782
hadoop参数配置性能优化:http://jerrylead.iteye.com/blog/1195335 (JVM重用,同时开启多个JVM,reuse)