-
媒体|郑宇:用大数据预测雾霾是如何做到的?
所属栏目:[大数据] 日期:2020-12-31 热度:53
副标题#e# (本文由澎湃新闻授权转载。) ? 全球范围里,有超过半数的人类居住在城市之中,城市化的进程也从未停止过。面对越来越庞大的城市,许多事情已经超出了控制:拥堵的交通,严重的空气污染,让人烦躁的噪音等等。 ? 没有人真正了解城市中到底发生了[详细]
-
(26进制大数相加)hdu 2100 Lovekey
所属栏目:[大数据] 日期:2020-12-31 热度:65
Lovekey Problem Description XYZ-26进制数是一个每位都是大写字母的数字。 A、B、C、…、X、Y、Z 分别依次代表一个0 ~ 25 的数字,一个 n 位的26进制数转化成是10进制的规则如下A0A1A2A3…An-1 的每一位代表的数字为a0a1a2a3…an-1 ,则该XYZ-26进制数的1[详细]
-
如何利用图像识别、语音识别、文本挖掘做好鉴黄?
所属栏目:[大数据] 日期:2020-12-31 热度:115
人工智能鉴黄市场竞争愈发激烈,目前图普科技、阿里绿网、腾讯万象优图等团队已占据大量市场份额,在此环境下,不少公司试图通过提供更全面的服务从这片红海中分一杯羹。 那么更全面的定制服务体现在哪些地方?雷锋网(公众号:雷锋网)特地采访了极限元 CEO[详细]
-
打包带走!史上最全的大数据分析和制作工具
所属栏目:[大数据] 日期:2020-12-31 热度:132
副标题#e# 来源:数之联大数据(ID:unionbigdata) 工欲善其事,必先利其器。 作为在大数据领域摸爬滚打叱咤风云的伙计们,也应当有一些实用工具来辅助工作日常。下面是小编精心整理的一些经检测非常实用的工具及网站,呈给大家~~ 数据可视化工具 说到数据[详细]
-
[bigdata-027] 最好用的 python+mysql的包:pymysql
所属栏目:[大数据] 日期:2020-12-31 热度:149
pip3 install pymysql import? pymysqlconn = pymysql.connect(host='127.0.0.1',port=3306,user='root',passwd='tiger88',db='spider_phone',charset='utf8')c = conn.cursor()c.execute('select * from phone_info limit 1;')r = c.fetchone()print(r)pr[详细]
-
数据可视化:手把手打造BI
所属栏目:[大数据] 日期:2020-12-31 热度:57
副标题#e# 本文是 如何七周成为数据分析师 的第六篇教程,如果想要了解写作初衷,可以先行阅读七周指南。温馨提示:如果您已经熟悉BI,大可不必再看这篇文章,或只挑选部分。 我们上一篇数据可视化:教你打造升职加薪的报表教大家如何制作清晰美观的报表以[详细]
-
下一代大数据处理平台Apache Beam成为Apache顶级项目
所属栏目:[大数据] 日期:2020-12-31 热度:71
副标题#e# Apache软件基金会在2017年01月10正式宣布Apache Beam从孵化项目毕业,成为Apache的顶级项目 Apache Beam(原名Google DataFlow)是Google在2016年2月份贡献给Apache基金会的Apache孵化项目,被认为是继MapReduce,GFS和BigQuery等之后,Google在大[详细]
-
26、Power Query-日期与时间数据处理实例(统计出某年各月各周的
所属栏目:[大数据] 日期:2020-12-31 热度:112
本节重点:Power Query-日期与时间数据处理实例(统计出某年各月各周的借书人数) 需求如下: 上图所示,根据左侧的数据源,统计出2016年各月各周的借书人数(效果如右侧所示)。 分析:很明显,这个需求是对日期的一个操作,其实仅需要用到左侧的第一列即[详细]
-
[bigdata-028]apache nifi 从mysql导出数据到hbase
所属栏目:[大数据] 日期:2020-12-31 热度:75
0.在hbase节点,启动thrift服务 hbase-daemon.sh start thrift 1. 在本机启动nif ./bin/nifi.sh start 2. 在浏览器输入http://localhost:8080/nifi,看到nifi的界面 3. 拖一个processor ExecuteSQL到界面 ??? 3.1 在processor上点击右键,选择configure,[详细]
-
27、Power Query-日期与时间数据处理实例(图书室借书统计)
所属栏目:[大数据] 日期:2020-12-31 热度:79
本节要点:Power Query-日期与时间数据处理实例(图书室借书统计) 承接上一节的需求,我们引入切片器的功能,对图书室的借书以及归还情况进行查询和筛选,效果图如下: 对“借书状态”和“归还状态”进行筛选,亦可同时筛[详细]
-
[bigdata-023] pymongo 3.4和mongodb 2.x的安全机制导致的用户认
所属栏目:[大数据] 日期:2020-12-31 热度:67
#!/usr/bin/env python3#! coding:utf-8 -*-import pymongo"""python3.4.0 + mongo 2.4.14"""client = pymongo.MongoClient('114.55.239.66')client.tzdb1.authenticate("tzuser1","user1688",mechanism='MONGODB-CR')db = client["tzdb1"]devsycredit = d[详细]
-
大数求和问题(C++版本)
所属栏目:[大数据] 日期:2020-12-31 热度:197
大数求和其实是个纯模拟,我们小学2年级老师就我们通过列竖式求加法,从个位开始加,进位+1,唯一需要值得注意的是我们求出来的结果要为有效值,即00001=1,0000=0 #include iostream#include stringusing namespace std;string nAB(string A,string B);str[详细]
-
[bigdata-024] 在centos 6.5上手工安装mongodb 3.2.5
所属栏目:[大数据] 日期:2020-12-31 热度:200
1. 操作系统 centos 6.5 2. 删除旧版本 kill xxxx yum erase mongodb.x86_64 rm /etc/mongod.conf rm /init/mongo* rm /init.d/mongo* locate mongo 删除全部mongo的相关文件 updatedb -U / 3. 下载mongo http://downloads.mongodb.org/linux/mongodb-linu[详细]
-
大数幂运算
所属栏目:[大数据] 日期:2020-12-31 热度:86
还是纯模拟,只可意会,不可言传,回到4年级,然后自己体会 #include stdio.h#include string.husing namespace std;#define MAX 40001int s[MAX];int nbit;void Init();void EXP(int nb,int ne);void vout(int x);int main(){ int base,exp; while(~scanf[详细]
-
414. Third Maximum Number
所属栏目:[大数据] 日期:2020-12-30 热度:163
Given a non-empty array of integers,return the third maximum number in this array. If it does not exist,return the maximum number. The time complexity must be in O(n). Example 1: Input: [3,2,1]Output: 1 Explanation: The third maximum is[详细]
-
[bigdata-025] ubuntu 14.04 下用virtualbox安装ghost xp
所属栏目:[大数据] 日期:2020-12-30 热度:79
市面上的各种ghost的iso很多。这里只说关键点 1.? 用xp ghost镜像启动,选择dos 2. 在dos执行 pq,进行分区 ??? 2.1 首先,选择建立一个“主要分割磁区”,这一点千万不要错,设置为C盘。文件格式根据xp ghost 指定的格式来,现在一般是ntfs。大概,4g就行[详细]
-
[bigdata-026] 大数据principle No.1 “只有干净数据才能进入存
所属栏目:[大数据] 日期:2020-12-30 热度:195
这个原则是极其重要。 1. 大数据eco,唯一的优点是处理海量数据,但是工具一般都不完善,藏着各种坑。不像传统数据库和传统功能,完备精致。 2. 最佳的使用方式就是:数据是干净清洁完美的,用大数据工具处理,性能很爽。 3. 但是,如果你试图用大数据eco[详细]
-
[bigdata-026] 大数据principle No.1~No.4
所属栏目:[大数据] 日期:2020-12-30 热度:151
Principle No.1 只有干净的数据才能进入存储。 这个原则是极其重要。 1. 大数据eco,唯一的优点是处理海量数据,但是工具一般都不完善,藏着各种坑。不像传统数据库和传统功能,完备精致。 2. 最佳的使用方式就是:数据是干净清洁完美的,用大数据工具处理[详细]
-
大数据处理算法一:BitMap算法
所属栏目:[大数据] 日期:2020-12-30 热度:139
腾讯面试题:给20亿个不重复的unsigned int的整数,没排过序的,然后再给一个数,如何快速判断这个数是否在那40亿个数当中并且所耗内存尽可能的少? ?解析:bitmap算法就好办多了 ?所谓bitmap,就是用每一位来存放某种状态,适用于大规模数据,但数据状态又[详细]
-
大数据处理算法二:Bloom Filter算法
所属栏目:[大数据] 日期:2020-12-30 热度:164
百度面试题:给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url? Bloom?Filter是由Bloom在1970年提出的一种多哈希函数映射的快速查找算法。通常应用在一些需要快速判断某个元素是否属于集合,但是并不严格[详细]
-
pyhive 连接 Hive 时错误
所属栏目:[大数据] 日期:2020-12-26 热度:54
一、User: xx is not allowed to impersonate xxx' 解决办法:修改 core-site.xml 文件,加入下面的内容后重启 hadoop。 property namehadoop.proxyuser.xx.hosts/name value*/value/propertyproperty namehadoop.proxyuser.xx.groups/name value*/value/p[详细]
-
分布式基础通信协议:paxos、totem 和 gossip(转载)
所属栏目:[大数据] 日期:2020-12-26 热度:179
背景: 在分布式中,最难解决的一个问题就是多个节点间数据同步问题。为了解决这样的问题,涌现出了各种奇思妙想。只有在解决了如何进行信息同步的基础之上才衍生出形形色色的应用。这里开始介绍几种分布式通信协议。 简单即有效——totem协议: totem协议[详细]
-
Hive 导入 parquet 格式数据
所属栏目:[大数据] 日期:2020-12-26 热度:59
Hive 导入 parquet 数据步骤如下: 查看 parquet 文件的格式 构造建表语句 倒入数据 一、查看 parquet 内容和结构 下载地址 社区工具 GitHub 地址 命令 查看结构: java -jar parquet-tools-1.6.0rc3-SNAPSHOT.jar schema -d activity.201711171437.0.parq[详细]
-
Presto 常用配置及操作
所属栏目:[大数据] 日期:2020-12-26 热度:82
一、介绍 Presto是一个开源的分布式SQL查询引擎,适用于交互式分析查询,数据量支持GB到PB字节。 Presto的设计和编写完全是为了解决像Facebook这样规模的商业数据仓库的交互式分析和处理速度的问题。 推荐阅读 Presto实现原理和美团的使用实践 二、安装 2.[详细]
-
大数据的技术生态概述(转载)
所属栏目:[大数据] 日期:2020-12-26 热度:141
副标题#e# 如何用形象的比喻描述大数据的技术生态?Hadoop、Hive、Spark 之间是什么关系? 大数据本身是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的。你可以把它比作一个厨房所以需要的各种工具。锅碗[详细]
