感谢支持
我们一直在努力

Redhat AS 4 成功升级最新Gcc

好不容易拿到批机器部署Hadoop1.0.1,却发现datanode的tasktracker死活启动不了,Java还报了个fatal error,真莫名其妙。

这里再次佩服google的强大,x度真的啥都找不到。
tasktracker启动失败,最终找到原因:
hdfs的部分c底层,是针对gcc4.1构建,而RedHat AS 4系统中,最新的gcc是3.4。

那就动手升级gcc了。但这是个挺苦力的工作,gcc依赖挺多其他包,而且要重新编译。这里先列出gcc4.7依赖的一些包:

1. glibc-devel
在编译gcc过程中,报错,说:
/usr/bin/ld: crti.o: No such file: No such file or directory

其实系统中存在这个文件,解决办法是,找到crti.o所属的包:
1)找到crti.o所在:
  locate crti.o
  /usr/lib64/crit.o
2)获得该文件所在包:
  rpm -qf /usr/lib64/crit.o
  glibc-devel-2.3.4-2.36
3)安装对应包:
  yum install glibc-devel-2.3.4-2.36

2. 安装xz   http://tukaani.org/xz/xz-5.0.3.tar.gz
解压后,放在/home/hadoop/xz-5.0.3下
./configure –prefix=/home/hadoop/local
make
make install
跟着修改 ~/.bashrc:



  1. export PATH=/usr/newgcc/bin:/home/hadoop/local/bin:$PATH   

  2. export LD_LIBRARY_PATH=/usr/newgcc/lib64:/home/hadoop/local/lib:$LD_LIBRARY_PATH   

  3. export LD_LIBRARY_PATH=/usr/newgcc/lib:/home/hadoop/local/lib:$LD_LIBRARY_PATH  

其中的/usr/newgcc是最后gcc安装的位置,这一次性的先添加到.bashrc。
之后,让设置生效:source ~/.bashrc
测试是否已经正确安装:输入:xz
则会有相关提示。


3. 下载mpc、mpfr、gmp
1)mpfr  http://www.mpfr.org/
2)mpc   http://www.multiprecision.org/
3)gmp   http://ftp.tsukuba.wide.ad.jp/software/gmp/gmp-5.0.0.tar.bz2

一般的操作时,分别编译这三个库,之后再编译gcc,但发现gcc官网有个偷懒的方法,就是把这些库解压后,分别改名为:gmp、mpc、mpfr后,mv到gcc源目录下,那么gcc在编译过程中,就会一同编译这3个库,原文: http://gcc.gnu.org/install/prerequisites.html


4. 之后可以编译安装gcc了
1)./configure –prefix=/usr/newgcc  –enable-shared –enable-threads=posix –enable-checking –with-zlib=/home/hadoop/local/bin –enable-__cxa_atexit –disable-libunwind-exceptions –enable-java-awt=gtk –build=x86_64-redhat-linux –enable-languages=c,c++

这里的build参数,而非host参数,若是host则会报错,原因不明。

2)make
3)make install
之后输入:gcc -v



  1. Using built-in specs.   

  2. COLLECT_GCC=gcc   

  3. COLLECT_LTO_WRAPPER=/usr/newgcc/libexec/gcc/x86_64-redhat-linux/4.7.0/lto-wrapper   

  4. Target: x86_64-redhat-linux   

  5. Configured with: ./configure –prefix=/usr/newgcc –enable-shared –enable-threads=posix –with-gmp=/home/hadoop/local/ –with-mpfr=/home/hadoop/local –with-mpc=/home/hadoop/local/ –enable-checking –with-zlib=/home/hadoop/local/bin –enable-__cxa_atexit –disable-libunwind-exceptions –enable-java-awt=gtk –build=x86_64-redhat-linux –enable-languages=c,c++   

  6. Thread model: posix   

  7. gcc version 4.7.0 (GCC)   

说明已经安装成功。

PS:为了不同登录用户都能使用gcc,则需要修改对应用户home下的.bashrc

附上另外一位仁兄的文章,对本人帮助很大: http://www.linuxidc.com/Linux/2012-06/62591.htm

赞(0) 打赏
转载请注明出处:服务器评测 » Redhat AS 4 成功升级最新Gcc
分享到: 更多 (0)

听说打赏我的人,都进福布斯排行榜啦!

支付宝扫一扫打赏

微信扫一扫打赏