Linux系统下Java和Scala环境配置

最近,笔者在研究一个有关“自然语言处理”的项目,在这个项目中,需要我们用Spark进行。而Spark内核是由Scala语言开发的,所以在使用Spark之前,我们必须配置好Scala,而Scala又是运行在JVM上的,所以在配置Scala之前,先要配置好。下面是我个人的一些总结。

我是在Win7系统下开的机,机的系统是7,在创建机完成后,它会自带一个OpenJDK,我的版本是这样的:

udast

但是因为最开始不了解这个情况,所以我从官网上下载了-8u73-linux-x64.tar.gz,并解压在/Downloads目录下。进入/etc/profile.d目录下,新建path.sh脚本文件,打开并配置环境变量如下图:

udast

在/etc/profile.d目录下,键入source path.sh命令,使配置生效。

然而配置成功后,在控制台中键入 -version,依然会得到第一张图中的信息,后来发现在配置之前,需要卸载系统自带的

在控制台中键入,会出现如下图所示的内容:

udast

但是不知道这些,只知道Java开发环境已经配置完毕,所以便开始找对应版本的Scala,我下载的是scala-2.10.5.tgz,并解压在/Downloads目录下。进入/etc/profile.d目录下,打开path.sh文件,配置Scala环境变量,如下图所示:

udast

在/etc/profile.d目录下,键入source path.sh命令,使配置生效。

在控制台中键入scala -version和scala,会分别得到如下两张图中的内容:

udast

udast

至此,Java和Scala环境配置完毕!

本文由笔者亲自编写,不包含任何抄袭成分,如有朋友需要转载、引用,请注明作者。

技术博文将做持续修改,欢迎各位大神留言指教!

使用IntelliJ IDEA编写Scala在Spark中运行

Scala编程完整中文版 PDF

快学Scala (中文完整扫描版) PDF 

Spark1.0.0部署指南

CentOS 6.2(64位)下安装Spark0.8.0详细记录

Spark简介及其在Ubuntu下的安装使用

安装Spark集群(在CentOS上)

Spark安装与学习

Spark 并行计算模型

Scala 的详细介绍

转载自:https://www.linuxidc.com/Linux/2016-04/130091.htm

声明: 除非转自他站(如有侵权,请联系处理)外,本文采用 BY-NC-SA 协议进行授权 | 智乐兔
转载请注明:转自《Linux系统下Java和Scala环境配置
本文地址:https://www.zhiletu.com/archives-6348.html
关注公众号:智乐兔

赞赏

wechat pay微信赞赏alipay pay支付宝赞赏

上一篇
下一篇

相关文章

在线留言

你必须 登录后 才能留言!

在线客服
在线客服 X

售前: 点击这里给我发消息
售后: 点击这里给我发消息

智乐兔官微