表示 进入内容 314042
« 先前的 10 新的记录 | 下一步 2 较早的记录 »
Displaying posts with tag: spark (reset)
Hadoop+Spark+MongoDB+MySQL+C#大数据开发项目最佳实践

随着IT技术的飞速发展,各行各业都已在广泛尝试使用大数据技术提供更稳健和优质的服务。目前,医疗IT系统收集了大量极具价值的数据,但这些历史医疗数据并没有发挥出其应有的价值。为此,本文拟利用医院现有的历史数据,挖掘出有价值的基于统计学的医学规则、知识,并基于这些信息构建专业的临床知识库,提供诊断、处方、用药推荐功能,基于强大的关联推荐能力,极大地提高医疗服务质量,减轻医疗人员的工作强度。

【分布式】  【大数据】  【架构】  【MongoDB】   …

[获取更多]
StreamingPro 简化流式计算配置

前些天可以让批处理的配置变得更优雅StreamingPro 支持多输入,多输出配置,现在流式计算也支持相同的配置方式了。另外未来等另外一个项目稳定,会释放出来配合StreamingPro使用,它可以让你很方便的读写HBase,比如可以为HBase 表 添加mapping,类似ES的做法,也可以不用mapping,系统会自动为你创建列(familly:column作为列名),或者将所有列合并成一个字段让你做处理。

【mysql】  【SQL】  【path】  【配置】  【spark】   …

[获取更多]
使用StreamingPro 快速构建Spark SQL on CarbonData

CarbonData已经发布了1.0版本,变更还是很快的,这个版本已经移除了kettle了,使得部署和使用 变得很简单,而且支持1.6+ ,2.0+等多个Spark版本。StreamingPro可以使得你很简单通过一个命令就能体验Carbondata,并且支持Http/JDBC的访问形态。

【mysql】  【SQL】  【http】  【数据库】  【request】  【spark】   …

[获取更多]
Spark连接JDBC数据源

在实际的项目环境中,成熟的技术体系对关系型数据库的依赖远远超过hdfs,而且对大数据运算的结果,实践中也倾向于保存到数据库中,以便进行多种方式的可视化。所以本次实践主要完成spark从mysql中读取和写入数据。

【mysql】  【函数】  【数据库】  【集群】  【Cache】  【spark】   …

[获取更多]
hdfs文件按修改时间下载

应用于:对于不同用户创建的表目录,进行文件的下载,程序中执行hadoop cat命令 下载文件到本地,随后通过ftp传至目标服务器,并将hdfs文件目录的修改时间存入mysql中。每次修改前将mysql中记录的数据,与本批次下载的HDFS文件路径修改时间对比,如果改变,则决定是否下载文件:   入口:

1 package edm.

【java】  【mysql】  【hdfs】  【hadoop】  【Apache】   …

[获取更多]
将一个电子表格迁移到MySQL和Spark2.0.1上

在这篇简短的指导中,笔者将会简短地回顾一种方法并且用我喜欢的数据集来演示。这不是一个ML库也不是一个Kaggle竞赛的数据集,仅仅是积累了数十年笔者跟踪塑料模型集合产生的数据,如此这般一定会适合传统的标准。

【mysql】  【Oracle】  【数据库】  【spark】  【type】  【varchar】   …

[获取更多]
java,mysql,hadoop,cdh,hive,spark,ntp,zookeeper,kafka,storm,redis,flume,git 安装详解

 

 

顶部 ---------------------------------------------------------------------------------------------------------------------------------- 0.

【redis】  【java】  【storm】  【docker】  【mysql】  【hadoop】  【Apache】  【yum】   …

[获取更多]
利用Spark解析Tomcat日志,并将统计结果存入Mysql数据库

本文试图实现的需求场景为:以学习Spark知识点为目的,编写Scala利用Spark解析800M的tomcat日志文件,打印一段时间内ERROR级别记录的前10行,统计每分钟的日志记录数,并将统计结果存入mysql数据库中。之前曾用JAVA写过一次同样的处理逻辑,但在学习了Scala之后,真的感觉在计算方面Scala要比JAVA方便的多。没有学习Scala语言的同学速度速度了啊……

【java】  【mysql】  【SQL】  【日志】  【LOG】   …

[获取更多]
Hive 1.2.1&Spark&Sqoop安装指南

目录 目录 1 1. 前言 1 2. 约定 2 3. 服务端口 2 4. 安装MySQL 2 4.1. 安装MySQL 2 4.

【java】  【mysql】  【hadoop】  【Apache】  【数据库】  【配置】  【spark】  【Server】   …

[获取更多]
spark on hive 配置hive的metastore为mysql

hive.metastore.urisThrift uri for the remote metastore. Used by metastore client to connect to remote metastore.

【mysql】  【配置】  【spark】  【JDBC】  【Driver】  【Hive】  【database】   点击查看原文>

表示 进入内容 314042
« 先前的 10 新的记录 | 下一步 2 较早的记录 »