安装Hue后的一些功能的问题解决干货总结_HuFeiHu-Blog的博客-CSDN博客_error could not connect to any of [('::1', 10000,


本站和网页 https://blog.csdn.net/u011596455/article/details/78046627 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

安装Hue后的一些功能的问题解决干货总结_HuFeiHu-Blog的博客-CSDN博客_error could not connect to any of [('::1', 10000,
安装Hue后的一些功能的问题解决干货总结
HuFeiHu-Blog
于 2017-09-20 23:01:29 发布
12225
收藏
分类专栏:
大数据交互式可视化-Hue
大数据交互式可视化-Hue
专栏收录该内容
5 篇文章
0 订阅
订阅专栏
不多说,直接上干货!
  我的集群机器情况是 bigdatamaster(192.168.80.10)、bigdataslave1(192.168.80.11)和bigdataslave2(192.168.80.12)
  然后,安装目录是在/home/hadoop/app下。
  官方建议在master机器上安装Hue,我这里也不例外。安装在bigdatamaster机器上。
 Hue版本:hue-3.9.0-cdh5.5.4
需要编译才能使用(联网) 说给大家的话:大家电脑的配置好的话,一定要安装cloudera manager。毕竟是一家人的。同时,我也亲身经历过,会有部分组件版本出现问题安装起来要个大半天时间去排除,做好心里准备。废话不多说,因为我目前读研,自己笔记本电脑最大8G,只能玩手动来练手。纯粹是为了给身边没高配且条件有限的学生党看的! 但我已经在实验室机器群里搭建好cloudera manager 以及 ambari都有。
大数据领域两大最主流集群管理工具Ambari和Cloudera Manger
Cloudera安装搭建部署大数据集群(图文分五大步详解)(博主强烈推荐)
Ambari安装搭建部署大数据集群(图文分五大步详解)(博主强烈推荐)
 问题一:
1、HUE中Hive 查询有问题,页面报错:Could not connect to localhost:10000  或者   Could not connect to bigdatamaster:10000
解决方法:
  在安装的HIVE中启动hiveserver2 &,因为端口号10000是hiveserver2服务的端口号,否则,Hue Web 控制无法执行HIVE 查询。
  bigdatamaster是我机器名。
  在$HIVE_HOME下
bin/hive -–service hiveserver2 &
[hadoop@bigdatamaster ~]$ cd $HIVE_HOME
[hadoop@bigdatamaster hive]$ bin/hive --service hiveserver2 &
  大家,注意,以下是我的hive-site.xml里的配置信息
  该问题,成功解决。
问题二:
  database is locked
 这应该是hue默认的SQLite数据库出现错误,你可以使用mysql postgresql等来替换
https://www.cloudera.com/documentation/enterprise/5-5-x/topics/admin_hue_ext_db.html(这是官网)
  同时,参考(见https://my.oschina.net/aibati2008/blog/647493)
  这篇博客:安装配置和使用hue遇到的问题汇总
# Configuration options for specifying the Desktop Database. For more info,
# see http://docs.djangoproject.com/en/1.4/ref/settings/#database-engine
# ------------------------------------------------------------------------
[[database]]
# Database engine is typically one of:
# postgresql_psycopg2, mysql, sqlite3 or oracle.
# Note that for sqlite3, 'name', below is a path to the filename. For other backends, it is the database name.
# Note for Oracle, options={"threaded":true} must be set in order to avoid crashes.
# Note for Oracle, you can use the Oracle Service Name by setting "port=0" and then "name=<host>:<port>/<service_name>".
# Note for MariaDB use the 'mysql' engine.
## engine=sqlite3
## host=
## port=
## user=
## password=
## name=desktop/desktop.db
## options={}
   以上是默认的。
  hue默认使用sqlite作为元数据库,不推荐在生产环境中使用。会经常出现database is lock的问题。
解决方法:
  其实官网也有解决方法,不过过程似乎有点问题。而且并不适合3.7之后的版本。我现在使用的是3.11,以下是总结的最快的切换方法。
[root@bigdatamaster hadoop]# mysql -uhive -phive
Welcome to the MySQL monitor. Commands end with ; or \g.
Your MySQL connection id is 49
Server version: 5.1.73 Source distribution
Copyright (c) 2000, 2013, Oracle and/or its affiliates. All rights reserved.
Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
owners.
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| hive |
| mysql |
| oozie |
| test |
+--------------------+
5 rows in set (0.07 sec)
mysql>
  
  因为,我这里是,用户为hive,密码也为hive,然后,数据库也为hive,所以如下:
# Configuration options for specifying the Desktop Database. For more info,
# see http://docs.djangoproject.com/en/1.4/ref/settings/#database-engine
# ------------------------------------------------------------------------
[[database]]
# Database engine is typically one of:
# postgresql_psycopg2, mysql, sqlite3 or oracle.
# Note that for sqlite3, 'name', below is a path to the filename. For other backends, it is the database name.
# Note for Oracle, options={"threaded":true} must be set in order to avoid crashes.
# Note for Oracle, you can use the Oracle Service Name by setting "port=0" and then "name=<host>:<port>/<service_name>".
# Note for MariaDB use the 'mysql' engine.
engine=mysql
host=bigdatamaster
port=3306
user=hive
password=hive
name=hive
## options={}
   然后,重启hue进程
[hadoop@bigdatamaster hue]$ build/env/bin/supervisor
   完成以上的这个配置,启动Hue,通过浏览器访问,会发生错误,原因是mysql数据库没有被初始化 DatabaseError: (1146, "Table 'hue.desktop_settings' doesn't exist")
  或者
ProgrammingError: (1146, "Table 'hive.django_session' doesn't exist")
   
   初始化数据库
/home/hadoop/app/hue-3.9.0-cdh5.5.4/build/env
bin/hue syncdb bin/hue migrate
  执行完以后,可以在mysql中看到,hue相应的表已经生成。
  启动hue, 能够正常访问了。
   
  或者 
   当然,大家这里,可以先在mysql里面创建数据库。命名为hue,并且是以hadoop用户和hadoop密码。
  首先,
[root@master app]# mysql -uroot -prootroot
mysql> create user 'hue' identified by 'hue'; //创建一个账号:用户名为hue,密码为hue
或者
mysql> create user 'hue'@'%' identified by 'hue'; //创建一个账号:用户名为hue,密码为hue
  然后
mysql> GRANT ALL PRIVILEGES ON *.* to 'hue'@'%' IDENTIFIED BY 'hue' WITH GRANT OPTION; //将权限授予host为%即所有主机的hue用户
mysql> GRANT ALL PRIVILEGES ON *.* to 'hue'@'bigdatamaster' IDENTIFIED BY 'hue' WITH GRANT OPTION; //将权限授予host为master的hue用户
mysql> GRANT ALL PRIVILEGES ON *.* to 'hue'@'localhost' IDENTIFIED BY 'hue' WITH GRANT OPTION; //将权限授予host为localhost的hue用户(其实这一步可以不配)
mysql> GRANT ALL PRIVILEGES ON *.* to 'hue'@'bigdatamaster' IDENTIFIED BY 'hue' WITH GRANT OPTION;
Query OK, 0 rows affected (0.00 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
mysql> select user,host,password from mysql.user;
+-------+---------------+-------------------------------------------+
| user | host | password |
+-------+---------------+-------------------------------------------+
| root | localhost | |
| root | bigdatamaster | |
| root | 127.0.0.1 | |
| | localhost | |
| | bigdatamaster | |
| hive | % | *4DF1D66463C18D44E3B001A8FB1BBFBEA13E27FC |
| hive | bigdatamaster | *4DF1D66463C18D44E3B001A8FB1BBFBEA13E27FC |
| hive | localhost | *4DF1D66463C18D44E3B001A8FB1BBFBEA13E27FC |
| oozie | % | *2B03FE0359FAD3B80620490CE614F8622E0828CD |
| oozie | bigdatamaster | *2B03FE0359FAD3B80620490CE614F8622E0828CD |
| oozie | localhost | *2B03FE0359FAD3B80620490CE614F8622E0828CD |
| hue | % | *15221DE9A04689C4D312DEAC3B87DDF542AF439E |
| hue | localhost | *15221DE9A04689C4D312DEAC3B87DDF542AF439E |
| hue | bigdatamaster | *15221DE9A04689C4D312DEAC3B87DDF542AF439E |
+-------+---------------+-------------------------------------------+
15 rows in set (0.00 sec)
mysql> exit;
Bye
[root@bigdatamaster hadoop]#
# Configuration options for specifying the Desktop Database. For more info,
# see http://docs.djangoproject.com/en/1.4/ref/settings/#database-engine
# ------------------------------------------------------------------------
[[database]]
# Database engine is typically one of:
# postgresql_psycopg2, mysql, sqlite3 or oracle.
# Note that for sqlite3, 'name', below is a path to the filename. For other backends, it is the database name.
# Note for Oracle, options={"threaded":true} must be set in order to avoid crashes.
# Note for Oracle, you can use the Oracle Service Name by setting "port=0" and then "name=<host>:<port>/<service_name>".
# Note for MariaDB use the 'mysql' engine.
engine=mysql
host=bigdatamaster
port=3306
user=hue
password=hue
name=hue
## options={}
  完成以上的这个配置,启动Hue,通过浏览器访问,会发生错误。比如如下
  如果大家遇到这个问题,别忘记还要创建数据库命名为hue。
OperationalError: (1049, "Unknown database 'hue'")
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| hive |
| mysql |
| oozie |
| test |
+--------------------+
5 rows in set (0.00 sec)
mysql> CREATE DATABASE hue;
Query OK, 1 row affected (0.49 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
mysql> exit;
Bye
[root@bigdatamaster hadoop]#
  启动hue之后,比如如下的错误,原因是mysql数据库没有被初始化。
ProgrammingError: (1146, "Table 'hue.django_session' doesn't exist")
  则初始化数据库
cd /home/hadoop/app/hue-3.9.0-cdh5.5.4/build/env
bin/hue syncdb bin/hue migrate
  具体如下(这里一定要注意啦!!!先看完,再动手)
  这里,大家一定要注意啊,如果这里你输入的是默认提示hadoop,则在登录的时候就是为hadoop啦。
   当然若这里,大家弄错了的话,还可以如我下面这样进行来弥补。
  第一步:
  所以,这样下来,不太好。
   所以我这里,为了避免这个情况发生,直接输入用户名为hue,密码也是为hue。
[hadoop@bigdatamaster env]$ pwd
/home/hadoop/app/hue-3.9.0-cdh5.5.4/build/env
[hadoop@bigdatamaster env]$ ll
total 12
drwxrwxr-x 2 hadoop hadoop 4096 May 5 20:59 bin
drwxrwxr-x 2 hadoop hadoop 4096 May 5 20:46 include
drwxrwxr-x 3 hadoop hadoop 4096 May 5 20:46 lib
lrwxrwxrwx 1 hadoop hadoop 3 May 5 20:46 lib64 -> lib
-rw-rw-r-- 1 hadoop hadoop 0 May 5 20:46 stamp
[hadoop@bigdatamaster env]$ bin/hue syncdb
Syncing...
Creating tables ...
Creating table auth_permission
Creating table auth_group_permissions
Creating table auth_group
Creating table auth_user_groups
Creating table auth_user_user_permissions
Creating table auth_user
Creating table django_openid_auth_nonce
Creating table django_openid_auth_association
Creating table django_openid_auth_useropenid
Creating table django_content_type
Creating table django_session
Creating table django_site
Creating table django_admin_log
Creating table south_migrationhistory
Creating table axes_accessattempt
Creating table axes_accesslog
You just installed Django's auth system, which means you don't have any superusers defined.
Would you like to create one now? (yes/no): yes
Username (leave blank to use 'hadoop'): hue
Email address:
Password: hue
Password (again):
Superuser created successfully.
Installing custom SQL ...
Installing indexes ...
Installed 0 object(s) from 0 fixture(s)
Synced:
> django.contrib.auth
> django_openid_auth
> django.contrib.contenttypes
> django.contrib.sessions
> django.contrib.sites
> django.contrib.staticfiles
> django.contrib.admin
> south
> axes
> about
> filebrowser
> help
> impala
> jobbrowser
> metastore
> proxy
> rdbms
> zookeeper
> indexer
Not synced (use migrations):
- django_extensions
- desktop
- beeswax
- hbase
- jobsub
- oozie
- pig
- search
- security
- spark
- sqoop
- useradmin
(use ./manage.py migrate to migrate these)
[hadoop@bigdatamaster env]$
  然后,再
[hadoop@bigdatamaster env]$ pwd
/home/hadoop/app/hue-3.9.0-cdh5.5.4/build/env
[hadoop@bigdatamaster env]$ bin/hue migrate
Running migrations for django_extensions:
- Migrating forwards to 0001_empty.
> django_extensions:0001_empty
- Loading initial data for django_extensions.
Installed 0 object(s) from 0 fixture(s)
Running migrations for desktop:
- Migrating forwards to 0016_auto__add_unique_document2_uuid_version_is_history.
> pig:0001_initial
> oozie:0001_initial
> oozie:0002_auto__add_hive
> oozie:0003_auto__add_sqoop
> oozie:0004_auto__add_ssh
> oozie:0005_auto__add_shell
> oozie:0006_auto__chg_field_java_files__chg_field_java_archives__chg_field_sqoop_f
> oozie:0007_auto__chg_field_sqoop_script_path
> oozie:0008_auto__add_distcp
> oozie:0009_auto__add_decision
> oozie:0010_auto__add_fs
> oozie:0011_auto__add_email
> oozie:0012_auto__add_subworkflow__chg_field_email_subject__chg_field_email_body
> oozie:0013_auto__add_generic
> oozie:0014_auto__add_decisionend
> oozie:0015_auto__add_field_dataset_advanced_start_instance__add_field_dataset_ins
> oozie:0016_auto__add_field_coordinator_job_properties
> oozie:0017_auto__add_bundledcoordinator__add_bundle
> oozie:0018_auto__add_field_workflow_managed
> oozie:0019_auto__add_field_java_capture_output
> oozie:0020_chg_large_varchars_to_textfields
> oozie:0021_auto__chg_field_java_args__add_field_job_is_trashed
> oozie:0022_auto__chg_field_mapreduce_node_ptr__chg_field_start_node_ptr
> oozie:0022_change_examples_path_format
- Migration 'oozie:0022_change_examples_path_format' is marked for no-dry-run.
> oozie:0023_auto__add_field_node_data__add_field_job_data
> oozie:0024_auto__chg_field_subworkflow_sub_workflow
> oozie:0025_change_examples_path_format
- Migration 'oozie:0025_change_examples_path_format' is marked for no-dry-run.
> desktop:0001_initial
> desktop:0002_add_groups_and_homedirs
> desktop:0003_group_permissions
> desktop:0004_grouprelations
> desktop:0005_settings
> desktop:0006_settings_add_tour
> beeswax:0001_initial
> beeswax:0002_auto__add_field_queryhistory_notify
> beeswax:0003_auto__add_field_queryhistory_server_name__add_field_queryhistory_serve
> beeswax:0004_auto__add_session__add_field_queryhistory_server_type__add_field_query
> beeswax:0005_auto__add_field_queryhistory_statement_number
> beeswax:0006_auto__add_field_session_application
> beeswax:0007_auto__add_field_savedquery_is_trashed
> beeswax:0008_auto__add_field_queryhistory_query_type
> desktop:0007_auto__add_documentpermission__add_documenttag__add_document
/home/hadoop/app/hue-3.9.0-cdh5.5.4/build/env/lib/python2.6/site-packages/Django-1.6.10-py2.6.egg/django/db/backends/mysql/base.py:124: Warning: Some non-transactional changed tables couldn't be rolled back
return self.cursor.execute(query, args)
> desktop:0008_documentpermission_m2m_tables
> desktop:0009_auto__chg_field_document_name
> desktop:0010_auto__add_document2__chg_field_userpreferences_key__chg_field_userpref
> desktop:0011_auto__chg_field_document2_uuid
> desktop:0012_auto__chg_field_documentpermission_perms
> desktop:0013_auto__add_unique_documenttag_owner_tag
> desktop:0014_auto__add_unique_document_content_type_object_id
> desktop:0015_auto__add_unique_documentpermission_doc_perms
> desktop:0016_auto__add_unique_document2_uuid_version_is_history
- Loading initial data for desktop.
Installed 0 object(s) from 0 fixture(s)
Running migrations for beeswax:
- Migrating forwards to 0013_auto__add_field_session_properties.
> beeswax:0009_auto__add_field_savedquery_is_redacted__add_field_queryhistory_is_reda
> beeswax:0009_auto__chg_field_queryhistory_server_port
> beeswax:0010_merge_database_state
> beeswax:0011_auto__chg_field_savedquery_name
> beeswax:0012_auto__add_field_queryhistory_extra
> beeswax:0013_auto__add_field_session_properties
- Loading initial data for beeswax.
Installed 0 object(s) from 0 fixture(s)
Running migrations for hbase:
- Migrating forwards to 0001_initial.
> hbase:0001_initial
- Loading initial data for hbase.
Installed 0 object(s) from 0 fixture(s)
Running migrations for jobsub:
- Migrating forwards to 0006_chg_varchars_to_textfields.
> jobsub:0001_initial
> jobsub:0002_auto__add_ooziestreamingaction__add_oozieaction__add_oozieworkflow__ad
> jobsub:0003_convertCharFieldtoTextField
> jobsub:0004_hue1_to_hue2
- Migration 'jobsub:0004_hue1_to_hue2' is marked for no-dry-run.
> jobsub:0005_unify_with_oozie
- Migration 'jobsub:0005_unify_with_oozie' is marked for no-dry-run.
> jobsub:0006_chg_varchars_to_textfields
- Loading initial data for jobsub.
Installed 0 object(s) from 0 fixture(s)
Running migrations for oozie:
- Migrating forwards to 0027_auto__chg_field_node_name__chg_field_job_name.
> oozie:0026_set_default_data_values
- Migration 'oozie:0026_set_default_data_values' is marked for no-dry-run.
> oozie:0027_auto__chg_field_node_name__chg_field_job_name
- Loading initial data for oozie.
Installed 0 object(s) from 0 fixture(s)
Running migrations for pig:
- Nothing to migrate.
- Loading initial data for pig.
Installed 0 object(s) from 0 fixture(s)
Running migrations for search:
- Migrating forwards to 0003_auto__add_field_collection_owner.
> search:0001_initial
> search:0002_auto__del_core__add_collection
> search:0003_auto__add_field_collection_owner
- Loading initial data for search.
Installed 0 object(s) from 0 fixture(s)
? You have no migrations for the 'security' app. You might want some.
Running migrations for spark:
- Migrating forwards to 0001_initial.
> spark:0001_initial
- Loading initial data for spark.
Installed 0 object(s) from 0 fixture(s)
Running migrations for sqoop:
- Migrating forwards to 0001_initial.
> sqoop:0001_initial
- Loading initial data for sqoop.
Installed 0 object(s) from 0 fixture(s)
Running migrations for useradmin:
- Migrating forwards to 0006_auto__add_index_userprofile_last_activity.
> useradmin:0001_permissions_and_profiles
- Migration 'useradmin:0001_permissions_and_profiles' is marked for no-dry-run.
> useradmin:0002_add_ldap_support
- Migration 'useradmin:0002_add_ldap_support' is marked for no-dry-run.
> useradmin:0003_remove_metastore_readonly_huepermission
- Migration 'useradmin:0003_remove_metastore_readonly_huepermission' is marked for no-dry-run.
> useradmin:0004_add_field_UserProfile_first_login
> useradmin:0005_auto__add_field_userprofile_last_activity
> useradmin:0006_auto__add_index_userprofile_last_activity
- Loading initial data for useradmin.
Installed 0 object(s) from 0 fixture(s)
[hadoop@bigdatamaster env]$
 执行完以后,可以在mysql中看到,hue相应的表已经生成。
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| hive |
| hue |
| mysql |
| oozie |
| test |
+--------------------+
6 rows in set (0.06 sec)
mysql> use hue;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
Database changed
mysql> show tables;
+--------------------------------+
| Tables_in_hue |
+--------------------------------+
| auth_group |
| auth_group_permissions |
| auth_permission |
| auth_user |
| auth_user_groups |
| auth_user_user_permissions |
| axes_accessattempt |
| axes_accesslog |
| beeswax_metainstall |
| beeswax_queryhistory |
| beeswax_savedquery |
| beeswax_session |
| desktop_document |
| desktop_document2 |
| desktop_document2_dependencies |
| desktop_document2_tags |
| desktop_document_tags |
| desktop_documentpermission |
| desktop_documenttag |
| desktop_settings |
| desktop_userpreferences |
| django_admin_log |
| django_content_type |
| django_openid_auth_association |
| django_openid_auth_nonce |
| django_openid_auth_useropenid |
| django_session |
| django_site |
| documentpermission_groups |
| documentpermission_users |
| jobsub_checkforsetup |
| jobsub_jobdesign |
| jobsub_jobhistory |
| jobsub_oozieaction |
| jobsub_ooziedesign |
| jobsub_ooziejavaaction |
| jobsub_ooziemapreduceaction |
| jobsub_ooziestreamingaction |
| oozie_bundle |
| oozie_bundledcoordinator |
| oozie_coordinator |
| oozie_datainput |
| oozie_dataoutput |
| oozie_dataset |
| oozie_decision |
| oozie_decisionend |
| oozie_distcp |
| oozie_email |
| oozie_end |
| oozie_fork |
| oozie_fs |
| oozie_generic |
| oozie_history |
| oozie_hive |
| oozie_java |
| oozie_job |
| oozie_join |
| oozie_kill |
| oozie_link |
| oozie_mapreduce |
| oozie_node |
| oozie_pig |
| oozie_shell |
| oozie_sqoop |
| oozie_ssh |
| oozie_start |
| oozie_streaming |
| oozie_subworkflow |
| oozie_workflow |
| pig_document |
| pig_pigscript |
| search_collection |
| search_facet |
| search_result |
| search_sorting |
| south_migrationhistory |
| useradmin_grouppermission |
| useradmin_huepermission |
| useradmin_ldapgroup |
| useradmin_userprofile |
+--------------------------------+
80 rows in set (0.00 sec)
mysql>
  启动hue, 能够正常访问了。
[hadoop@bigdatamaster hue-3.9.0-cdh5.5.4]$ pwd
/home/hadoop/app/hue-3.9.0-cdh5.5.4
[hadoop@bigdatamaster hue-3.9.0-cdh5.5.4]$ build/env/bin/supervisor
问题三:
  Error loading MySQLdb module: libmysqlclient_r.so.16: cannot open shared object file: No such file or directory
解决办法
  把安装mysql 的虚拟机里找一个直接把libmysqlclient.so.18这个文件拷贝到系统指定的/usr/lib64库文件目录中。
  大家,注意,以下是我的hive-site.xml配置信息,我的hive是安在bigdatamaster机器上,
  我的这里配置是,
# Database options to send to the server when connecting.
# https://docs.djangoproject.com/en/1.4/ref/databases/
## options={}
# mysql, oracle, or postgresql configuration.
[[[mysql]]]
# Name to show in the UI.
nice_name="My SQL DB"
# For MySQL and PostgreSQL, name is the name of the database.
# For Oracle, Name is instance of the Oracle server. For express edition
# this is 'xe' by default.
name=hive
# Database backend to use. This can be:
# 1. mysql
# 2. postgresql
# 3. oracle
engine=mysql
# IP or hostname of the database to connect to.
host=bigdatamaster
# Port the database server is listening to. Defaults are:
# 1. MySQL: 3306
# 2. PostgreSQL: 5432
# 3. Oracle Express Edition: 1521
port=3306
# Username to authenticate with when connecting to the database.
user=hive
# Password matching the username to authenticate with when
# connecting to the database.
password=hive
# Database options to send to the server when connecting.
# https://docs.djangoproject.com/en/1.4/ref/databases/
## options={}
  该问题成功得到解决!
问题四(跟博文的问题十五一样)
  点击“File Browser”报错:
  Cannot access:/user/admin."注:您是hue管理员,但不是HDFS超级用户(即“”HDFS“”)
解决方法:
  在$HADOOP_HOME的etc/hadoop中编辑core-site.xml文件,增加 
     <property>
<name>hadoop.proxyuser.oozie.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.ozzie.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.groups</name>
<value>*</value>
</property>
  然后重启hadoop,stop-all.sh----->start-all.sh即可。
  该问题成功得到解决!
      我一般配置是如下,在$HADOOP_HOME/etc/hadoop/下的core-site.xml里
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hdfs.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hdfs.groups</name>
<value>*</value>
</property>
  为什么要这么加,是因为,我有三个用户,
  这里,大家根据自己的实情去增加,修改完之后,一定要重启sbin/start-all.sh,就能解决问题了。
  
问题五
  在Hue对HBase集成时, HBase  Browser 里出现 Api Error: TSocket read 0 bytes
  解决办法
   https://stackoverflow.com/questions/20415493/api-error-tsocket-read-0-bytes-when-using-hue-with-hbase
Add this to your hbase "core-site.conf":
<property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>
  即可,解决问题。
  问题六:
   User: hadoop is not allowed to impersonate hue
Api 错误:<html> <head> <meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1"/> <title>Error 500 User: hadoop is not allowed to impersonate hue</title> </head> <body><h2>HTTP ERROR 500</h2> <p>Problem accessing /. Reason: <pre> User: hadoop is not allowed to impersonate hue</pre></p><h3>Caused by:</h3><pre>javax.servlet.ServletException: User: hadoop is not allowed to impersonate hue at org.apache.hadoop.hbase.thrift.ThriftHttpServlet.doPost(ThriftHttpServlet.java:117) at javax.servlet.http.HttpServlet.service(HttpServlet.java:727) at javax.servlet.http.HttpServlet.service(HttpServlet.java:820) at org.mortbay.jetty.servlet.ServletHolder.handle(ServletHolder.java:511) at org.mortbay.jetty.servlet.ServletHandler.handle(ServletHandler.java:401) at org.mortbay.jetty.servlet.SessionHandler.handle(SessionHandler.java:182) at org.mortbay.jetty.handler.ContextHandler.handle(ContextHandler.java:767) at org.mortbay.jetty.handler.HandlerWrapper.handle(HandlerWrapper.java:152) at org.mortbay.jetty.Server.handle(Server.java:326) at org.mortbay.jetty.HttpConnection.handleRequest(HttpConnection.java:542) at org.mortbay.jetty.HttpConnection$RequestHandler.content(HttpConnection.java:945) at org.mortbay.jetty.HttpParser.parseNext(HttpParser.java:756) at org.mortbay.jetty.HttpParser.parseAvailable(HttpParser.java:212) at org.mortbay.jetty.HttpConnection.handle(HttpConnection.java:404) at org.mortbay.io.nio.SelectChannelEndPoint.run(SelectChannelE
   解决办法
   $HADOOP_HOME/ect/hadoop的core-site.xml里
<property> <name>hadoop.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>*</value> </property>
 改为
<property> <name>hadoop.proxyuser.hue.hosts</name> <value>hadoop</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>hadoop</value> </property>
  问题七
   Api 错误:集群配置 (Cluster|bigdatamaster:9090 的格式设置不正确。
  改为
问题八:
  在hue里面查看HDFS文件浏览器报错:
  当前用户没有权限查看, 
  cause:org.apache.hadoop.ipc.StandbyException: Operation category READ is not supported in state standby
解决方案:
  Web页面查看两个NameNode状态,是不是之前的namenode是standby状态了. 我现有的集群就是这种情况, 由于之前的服务是master1起的, 挂了之后自动切换到master2, 但是hue中webhdfs还是配置的master1,导致在hue中没有访问权限.
  
 问题九
  hive查询时报错
  org.apache.hive.service.cli.HiveSQLException: Couldn't find log associated with operation handle: OperationHandle [opType=EXECUTE_STATEMENT, getHandleIdentifier()=b3d05ca6-e3e8-4bef-b869-0ea0732c3ac5]
解决方案:
将hive-site.xml中的hive.server2.logging.operation.enabled=true;
<property>
<name>hive.server2.logging.operation.enabled</name>
<value>true</value>
</property>
 问题十
  启动hue web端 报错误:OperationalError: attempt to write a readonly database
解决办法
  启动hue server的用户没有权限去写入默认sqlite DB,同时确保安装目录下所有文件的owner都是hadoop用户
chown -R hadoop:hadoop hue-3.9.0-cdh5.5.4
  问题十一
HUE 报错误:Filesystem root ‘/’ should be owned by ‘hdfs’
  hue 文件系统根目录“/”应归属于“hdfs”
解决方法
  修改 文件desktop/libs/hadoop/src/hadoop/fs/webhdfs.py 中的  DEFAULT_HDFS_SUPERUSER = ‘hdfs’  更改为你的hadoop用户
  问题十二
  错误:hbase-site.xml 配置文件中缺少 kerberos 主体名称。
   解决办法
  问题十三
  Hue下无法无法正确连接到 Zookeeper  timed out
  解决办法
  说明你的zookeeper模块,还没配置完全。
HUE配置文件hue.ini 的zookeeper模块详解(图文详解)(分HA集群)
  问题十四
Sqoop 错误: 无法获取连接器。
   解决办法
  看下自己的sqoop版本是不是,不是Sqoop2版本。好比我的如下
  大家要注意,Hue里是只支持Sqoop2版本,对于Sqoop1和Sqoop2版本,直接去官网看就得了。
   那么,得更换sqoop版本。
sqoop2-1.99.5-cdh5.5.4.tar.gz的部署搭建
  问题十五(见本博客的问题四)
无法访问:/user/hadoop。 Note: you are a Hue admin but not a HDFS superuser, "hdfs" or part of HDFS supergroup, "supergroup".
  SecurityException: Failed to obtain user group information: org.apache.hadoop.security.authorize.AuthorizationException: User: hue is not allowed to impersonate hadoop (error 403)
 问题分析
  那是因为,HUE安装完成之后,第一次登录的用户就是HUE的超级用户,可以管理用户,等等。但是在用的过程发现一个问题这个用户不能管理HDFS中由supergroup创建的数据。
  虽然在HUE中创建的用户可以管理自己文件夹下面的数据/user/XXX。那么Hadoop superuser的数据怎么管理呢,HUE提供了一个功能就是将Unix的用户和Hue集成,这样用Hadoop superuser的用户登录到HUE中就能顺利的管理数据了。
下面几个步骤来进行集成
  第一步:确保hadoop 这个用户组在系统之中(这个hadoop肯定是在系统中了)
  第二步:运行下面命令
[hadoop@bigdatamaster env]$ pwd
/home/hadoop/app/hue-3.9.0-cdh5.5.4/build/env
[hadoop@bigdatamaster env]$ ll
total 16
drwxrwxr-x 2 hadoop hadoop 4096 May 5 20:59 bin
drwxrwxr-x 2 hadoop hadoop 4096 May 5 20:46 include
drwxrwxr-x 3 hadoop hadoop 4096 May 5 20:46 lib
lrwxrwxrwx 1 hadoop hadoop 3 May 5 20:46 lib64 -> lib
drwxrwxr-x 2 hadoop hadoop 4096 Aug 2 17:20 logs
-rw-rw-r-- 1 hadoop hadoop 0 May 5 20:46 stamp
[hadoop@bigdatamaster env]$ bin/hue useradmin_sync_with_unix
[hadoop@bigdatamaster env]$
   第三步:
  运行完上面的命令,进入到HUE总你就会发现用户已经集成进来了,但是,没有密码,所以需要给Unix的用户设定密码和分配用户组。
   这里,
   
  或者
   完成上述步骤之后,登陆进去,就能愉快地管理HDFS数据了。
HUE新建HDFS目录
  问题描述: you are a Hue admin but not a HDFS superuser, “hdfs” or part of HDFS supergroup, “supergroup”   解决方案:在hue中新增hdfs用户,以hdfs用户登录创建目录和上传文件
  参考
https://geosmart.github.io/2015/10/27/CDH%E4%BD%BF%E7%94%A8%E9%97%AE%E9%A2%98%E8%AE%B0%E5%BD%95/
  然后,其实还是没有成功,
  说白了,这个问题还是要看本博文的问题四
    我一般配置是如下,在$HADOOP_HOME/etc/hadoop/下的core-site.xml里
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hdfs.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hdfs.groups</name>
<value>*</value>
</property>
  为什么要这么加,是因为,我有三个用户,
  这里,大家根据自己的实情去增加,修改完之后,一定要重启sbin/start-all.sh,就能解决问题了。
  问题十六
  无法为用户hue创建主目录, 无法为用户hadoop创建主目录,无法为用户hdfs创建主目录。
   
 解决办法
  在$hadoop/etc/hadoop/core-site.xml 
<property>
<name>hadoop.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.groups</name>
<value>*</value>
</property>
  比如,以下是无法为用户hdfs创建主目录,则
<property>
<name>hadoop.proxyuser.hdfs.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hdfs.groups</name>
<value>*</value>
</property>
  成功!
  问题十七
  User [hue] not defined as proxyuser
  问题来源:
The oozie is running, when I click WorkFlows, there appares a error
  即,oozie启动后,当我在hue界面点击workfolws后,出现如下的错误
  解决办法
Hue submits MapReduce jobs to Oozie as the logged in user. You need to configure Oozie to accept the hue user to be a proxyuser. Specify this in your oozie-site.xml (even in a non-secure cluster), and restart Oozie:
<property>
<name>oozie.service.ProxyUserService.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>oozie.service.ProxyUserService.proxyuser.hue.groups</name>
<value>*</value>
</property>
  参考: http://archive.cloudera.com/cdh4/cdh/4/hue-2.0.0-cdh4.0.1/manual.html
  即,在oozie-site.xml配置文件里,加入
  添加好之后,然后重启oozie。记得先jps下进程,Kill掉,再重启。
   注意:/home/hadoop/app/oozie是我安装oozie的目录。
   或者执行以下命令重启也是可以的。
[hadoop@bigdatamaster oozie]$ pwd
/home/hadoop/app/oozie
[hadoop@bigdatamaster oozie]$ bin/oozied.sh restart
  然后,得到
  问题十八
   Oozie 服务器未运行
   解决办法
Oozie的详细启动步骤(CDH版本的3节点集群)
  问题十九
 Api 错误:('Connection aborted.', error(111, 'Connection refused'))
   解决办法
 问题二十
  Could not connect to bigdatamaster:21050
   解决办法
   开启impala服务
  问题二十一:
OperationalError: (2003, "Can't connect to MySQL server on 'bigdatamaster' (111)")
  解决办法
[root@bigdatamaster hadoop]# service mysqld start
Starting mysqld: [ OK ]
[root@bigdatamaster hadoop]#
  再刷新即可。
作者:好记性不如烂笔头! 出处:http://www.cnblogs.com/zlslch/
HuFeiHu-Blog
关注
关注
点赞
收藏
评论
安装Hue后的一些功能的问题解决干货总结
不多说,直接上干货!  我的集群机器情况是 bigdatamaster(192.168.80.10)、bigdataslave1(192.168.80.11)和bigdataslave2(192.168.80.12)  然后,安装目录是在/home/hadoop/app下。   官方建议在master机器上安装Hue,我这里也不例外。安装在bigdatamaster机器上。 
复制链接
扫一扫
专栏目录
解决pyhive连接时出现thrift.transport.TTransport.TTransportException: Could not connect to any of…的问题
weixin_41108545的博客
08-04
8725
问题描述:使用pyhive在本地连接hive时,发现使用conn = hive.connect(host=qy_host,port=10000,auth=“CUSTOM”,database=‘default’,
… username=qy_user,password=qy_pw)无法连接,qy_host无论是localhost还是服务器的ip都提示上述错误。
问题解决:首先,进入hive输入set hive.server2.thrift.port,查看输出的端口是否为
hue安装报错【已解决】
ChengYanan的博客
03-17
435
今天在CDH平台上安装Hue,突然间报了这样一个错:
[17/Mar/2021 16:53:33 +0000] settings DEBUG DESKTOP_DB_TEST_NAME SET: /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/hue/desktop/desktop-test.db
[17/Mar/2021 16:53:33 +0000] settings DEBUG DESKTOP_DB_TEST
评论 2
您还未登录,请先
登录
后发表或查看评论
hue编译、启动、使用
最新发布
Interest1_wyt的博客
11-20
368
hue编译了解、踩坑识别
Cloudera-Manager6搭建CDH集群时hue数据库连接失败问题
花满楼的博客
08-07
507
通过查看$CM_HOME/log/cloudera-cm-server/cloudera-cm-server.log,发现hue数据库连接失败主要是由于缺少一个libmysqlclient.so.20这个库文件
Traceback (most recent call last):
File "/opt/cloudera/parcels/CDH-5.13.0-1.cdh5.13.0.p...
hue 连接数据库失败及启动hue server和安装load balance时一直失败终极方案!!!
SDKLHKJAS的博客
08-08
973
hue的问题第一个就是当验证数据库时,失败的问题,大多数都是缺少libmysqlclient.so.18这个文件或者目录找不到。
在页面是这样的Unable to verify database connection.
日志是有这Error loading MySQLdb module: libmysqlclient.so.18: cannot open shared ob...
cm hue 无法连接mysql_解决Cloudera-Manager搭建CDH集群时hue数据库连接失败问题(二)
weixin_39761422的博客
02-03
155
[21/Feb/2019 15:21:36 +0000] settings DEBUG DESKTOP_DB_TEST_NAME SET: /opt/cloudera/parcels/CDH-5.8.0-1.cdh5.8.0.p0.42/lib/hue/desktop/desktop-test.db[21/Feb/2019 15:21:36 +0000] settings D...
安装CDH时出现Unexpected error. Unable to verify database connection问题的解决思路
dongyuan234的专栏
07-18
3774
出现Unexpected error. Unable to verify database connection问题的解决思路
测试版本:cm-5.13.0
问题场景
在安装CDH过程中,在测试数据库连接环节,验证HUE数据库连接失败,报Unexpected error. Unable to verify database connection错误
问题分析
1. 分析主节点日志
tail -f ...
cdh5.11.0mysql connec_CDH5.11.0 HUE 连接mysql 测试连接失败
weixin_39519554的博客
01-19
87
小弟初来报道。根据教程安装CDH5.11.0时,在安装hue,测试连接mysql发现如下报错。在网上查找攻略,说是JDK文件夹权限问题,但JDK文件夹权限已经设置成777了,还是不行。求大佬解答,万般感激。-------------------------------------------------------------------------------------------------...
解决HUE使用sparksql查询无法显示元数据的问题
Tom_yj的博客
02-09
372
解决HUE使用sparksql查询无法显示元数据的问题
解决方法:
1、首先你的hive肯定要能用,我们就是将spark的元数据查询请求转换为hive的元数据请求
2、操作步骤:
cd /opt/cloudera/parcels/CDH/lib/hue/build/static/desktop/js
vi apiHelper.js
ApiHelper.prototype.fetchSourceMetadata = function (options) {
var self = this;
Hue安装、或操作过程中遇到的问题
ykqidev的博客
04-14
2410
[Hue-001] 编译Hue时报错,File “/usr/bin/yum“, line 30 except KeyboardInterrupt
解决方案:主要是系统自带的python2.7,默认环境是python,你安装python3.x后,更改默认/usr/bin/python的软引用为python3.x导致的。
直接修改/usr/bin/yum文件中的第一行为 #!/usr/bin/python2.7
[Hue-002] Hue启动报错,OperationalError: attempt to w
关于hue与hive集成中遇到的一些问题,could not connect to hadoop101:10000
luoxiaobao666的博客
03-11
2008
折磨了我一个晚上,终于找到了原因:
1.一般情况下,是没有启动.hiveserver2,进入hive下的bin目录,执行.hiveserver2就可以了
2.我昨天遇到的问题是,明明启动了.hiveserver2,一开始还很正常,可以创建表,但突然就不行了,并且出现了这个问题:
3.一开始,我并没有把两者联系到一块,因为我问了损友,她说她也遇到了这个问题,不影响,我就没再管这个问题,...
hue的部署 - 关联大数据实战第一课
zhikanjiani的博客
07-04
599
...
hue数据库连接验证失败
yang_zzu的博客
10-17
603
目录
Unexpected error. Unable to verify database connection.
1.查看日志
2.安装 缺失的软件MySQL-python、mysqlclient、PyMySQL
3.安装mysql-community-libs-compat(mysql版本<5.7.9 )
4.安装mariadb-libs(mysql版本>=5.7.9 )
hue进行数据库验证提示
Unexpected error. Unable to verif...
解决Cloudera-Manager搭建CDH集群时hue数据库连接失败问题(二)
sinat_36358653的博客
02-22
2029
这个问题最常见的现象就是如下:
在查看${CM_HOME}/log/cloudera-scm-server/cloudera-scm-server.log日志文件时,给出如下错误:
[21/Feb/2019 15:21:36 +0000] settings DEBUG DESKTOP_DB_TEST_NAME SET: /opt/cloudera/parcels/CDH-5....
CentOS和Ubuntu系统下安装 HttpFS (助推Hue部署搭建)
weixin_34162629的博客
05-06
74
不多说,直接上干货!
  我的集群机器情况是 bigdatamaster(192.168.80.10)、bigdataslave1(192.168.80.11)和bigdataslave2(192.168.80.12)
  然后,安装目录是在/home/hadoop/app下。
  官方建议在master机器上安装Hue,我这里也不例外。安装在bigdatamaste...
hue启动遇到问题
qq_27914421的博客
08-03
2217
Traceback (most recent call last):
File "/root/training/hue/build/env/bin/hue", line 9, in <module>
load_entry_point('desktop==4.0.0', 'console_scripts', 'hue')()
File "/root/training/hu...
ubuntu之sudo apt-get update提示Could not connect to 127.0.0.1:8081 (127.0.0.1)解决办法
热门推荐
码莎拉蒂
07-30
3万+
1、问题
由于要使用Git,需要执行
sudo apt-get install git
但是执行之前我需要先
sudo apt-get update
麻痹的,当我执行这个的时候错误提示如下
Could not connect to 127.0.0.1:8081 (127.0.0.1). - connect (111: Connection refused)
Err:1 http...
hadoop生态环境安装
qingfeng2556的博客
10-16
191
hadoop2.8.5+hive2.3.6+hbase2.1.0
1、启动hadoop
https://www.cnblogs.com/chevin/p/9090683.html
https://blog.csdn.net/Source_00/article/details/83031688
hdfs namenode -format
d:
cd D:\tools\bigdata\hadoo...
hue页面报错:Could not connect to localhost:10000
weixin_43859957的博客
09-10
3036
页面报错:Could not connect to localhost:10000
hive --service hiveserver2 &
CDH中安装Hue连接不上数据库 Unexpected error. Unable to verify database connection 完美解决方案
晰中的博客
11-02
2万+
在安装CDH时,走到验证数据库连接部分时候,Hue总是验证不过去,报错为: Unexpected error. Unable to verify database connection。原因大都是因为缺少环境包所致。
我安装的过程中分别使用过postgresql和mysql,都出现过相同问题最终都得以解决,解决方法如下:
比如:我把Hue安装在slave1节点上
当使用Postgres...
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
©️2022 CSDN
皮肤主题:酷酷鲨
设计师:CSDN官方博客
返回首页
HuFeiHu-Blog
CSDN认证博客专家
CSDN认证企业博客
码龄9年
暂无认证
63
原创
3万+
周排名
40万+
总排名
211万+
访问
等级
1万+
积分
880
粉丝
644
获赞
160
评论
2882
收藏
私信
关注
热门文章
关于Ubuntu中Could not get lock /var/lib/dpkg/lock解决方案
198945
Presto简介
80620
Docker容器和主机如何互相拷贝传输文件
57051
方向分布(标准差椭圆)
56805
win10完美去除快捷方式小箭头的方法
55664
分类专栏
生物信息
1篇
Flink 原理和源码解析
大数据语言-Scala语言
Spark源码解析
Flink技术
分布式消息系统-Kafka
5篇
缓存系统-Redis
通用语言--Java语言
39篇
Linux操作系统
69篇
Jetbrians软件开发工具
8篇
大数据统一处理 -Google beam
2篇
大数据计算存储-Hadoop
72篇
大数据计算-Spark
51篇
大数据计算-Flink
5篇
时空大数据
1篇
时空大数据框架-GeoMesa
10篇
时空大数据技术-GeoSpark
1篇
时空大数据技术-GeoWave
9篇
时空大数据技术-GeoTrellis
7篇
时空大数据技术-geopyspark
1篇
时空大数据技术-GeoGig
2篇
时空大数据云平台
1篇
大数据实时计算-Driud
1篇
大数据流计算--Apache Heron
大数据流计算--Apache Apex
大数据流计算-Apache NiFi
1篇
大数据流计算--Samza
3篇
大数据流计算-Storm
7篇
大数据缓存--Apache Geode
大数据缓存--Apache Ignite
大数据存储查询--ClickHouse
大数据存储-Accumulo
5篇
大数据存储-Hbase
12篇
大数据存储-Cassandra
大数据语言-Python语言
39篇
大数据语言-R语言
55篇
大数据可视化-Echarts
1篇
大数据交互式可视化--Kibana
大数据交互式可视化--Superset
大数据交互式可视化-Zeppelin
4篇
大数据交互式可视化-Hue
5篇
大数据可视化与商业智能-MicroStrategy
大数据可视化与商业智能-Tableau
大数据可视化与商业智能-Power BI
大数据安全--Apache Sentry
大数据安全--Apache Eagle
大数据安全--Kerberos
大数据安全--Apache Ranger
大数据安全--Apache Atlas
大数据日志采集分析栈-ElasticStack
大数据日志采集--Scribe
大数据采集-Flume
1篇
大数据采集--Chukwa
大数据采集--Logstash
大数据采集--filebeat
大数据搜索--Solr
大数据搜索-ElasticSearch
大数据搜索--Lucene
大数据SQL查询引擎--Apache HAWQ
大数据SQL查询引擎--Presto
3篇
大数据SQL查询引擎--Apache Phoenix
大数据SQL查询引擎--Apache Drill
大数据DAG计算框架--Apache Tez
2篇
大数据REST API 网关--Apache Knox
大数据生命周期框架--Apache Falcon
大数据工作流--Apache Oozie
大数据工作流调度--Apache Airflow
大规模并行计算框架--Apache Hama
大数据技术--Apache Pig
大数据技术-Hive
17篇
多源异构数据传输工具--FlinkX
1篇
大数据技术-Impala
11篇
多源异构数据传输工具--Arrow
多源异构数据传输工具-HData
1篇
多源异构数据传输工具-DataX
2篇
多源异构数据传输工具-Sqoop
2篇
分布式系统基本原理
2篇
分布式机器学习--Mahout
分布式列式存储引擎--Apache Kudu
1篇
分布式文档存储数据库-MongoDB
分布式服务框架--Apache Dubbo
1篇
分布式集群监控- Ganglia
分布式集群监控-Ambari
2篇
分布式协调-zookeeper
1篇
深度学习-tensorflow
1篇
消息中间件--RokcetMQ
1篇
消息中间件--Kafka
3篇
未来技术-万物索引
图数据库--Neo4j
关系型数据库--PostgreSQL
2篇
数据挖掘
72篇
机器学习
76篇
模式识别
42篇
数学科学
10篇
容器技术-Docker
5篇
云原生--Kubernetes
最新评论
PySpark处理数据并图表分析
好梦橙:
请问没有matplotlib这个模块应该怎么下载?
MetaWRAP 安装与配置
Shellyคิดถึง:
我也显示找不到,请问解决了吗?
R语言在线地图神器:Leaflet for R包(六,完结篇)栅格、颜色和图例设置
EIOST丶:
大神,脚本和数据在哪获取鸭?
数据挖掘--Apriori导论
dream_aleaf:
您好,lecture4.PPT点链接进去以后显示找不到诶,请问还有其他办法找到吗?
win10完美去除快捷方式小箭头的方法
枫枫啊疯:
强,强者的强。
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
提交
最新文章
MetaWRAP 安装与配置
面试算法大全-滑动窗口总结
面试算法大全-双指针技巧总结
2021年17篇
2019年40篇
2018年95篇
2017年230篇
2016年155篇
目录
目录
分类专栏
生物信息
1篇
Flink 原理和源码解析
大数据语言-Scala语言
Spark源码解析
Flink技术
分布式消息系统-Kafka
5篇
缓存系统-Redis
通用语言--Java语言
39篇
Linux操作系统
69篇
Jetbrians软件开发工具
8篇
大数据统一处理 -Google beam
2篇
大数据计算存储-Hadoop
72篇
大数据计算-Spark
51篇
大数据计算-Flink
5篇
时空大数据
1篇
时空大数据框架-GeoMesa
10篇
时空大数据技术-GeoSpark
1篇
时空大数据技术-GeoWave
9篇
时空大数据技术-GeoTrellis
7篇
时空大数据技术-geopyspark
1篇
时空大数据技术-GeoGig
2篇
时空大数据云平台
1篇
大数据实时计算-Driud
1篇
大数据流计算--Apache Heron
大数据流计算--Apache Apex
大数据流计算-Apache NiFi
1篇
大数据流计算--Samza
3篇
大数据流计算-Storm
7篇
大数据缓存--Apache Geode
大数据缓存--Apache Ignite
大数据存储查询--ClickHouse
大数据存储-Accumulo
5篇
大数据存储-Hbase
12篇
大数据存储-Cassandra
大数据语言-Python语言
39篇
大数据语言-R语言
55篇
大数据可视化-Echarts
1篇
大数据交互式可视化--Kibana
大数据交互式可视化--Superset
大数据交互式可视化-Zeppelin
4篇
大数据交互式可视化-Hue
5篇
大数据可视化与商业智能-MicroStrategy
大数据可视化与商业智能-Tableau
大数据可视化与商业智能-Power BI
大数据安全--Apache Sentry
大数据安全--Apache Eagle
大数据安全--Kerberos
大数据安全--Apache Ranger
大数据安全--Apache Atlas
大数据日志采集分析栈-ElasticStack
大数据日志采集--Scribe
大数据采集-Flume
1篇
大数据采集--Chukwa
大数据采集--Logstash
大数据采集--filebeat
大数据搜索--Solr
大数据搜索-ElasticSearch
大数据搜索--Lucene
大数据SQL查询引擎--Apache HAWQ
大数据SQL查询引擎--Presto
3篇
大数据SQL查询引擎--Apache Phoenix
大数据SQL查询引擎--Apache Drill
大数据DAG计算框架--Apache Tez
2篇
大数据REST API 网关--Apache Knox
大数据生命周期框架--Apache Falcon
大数据工作流--Apache Oozie
大数据工作流调度--Apache Airflow
大规模并行计算框架--Apache Hama
大数据技术--Apache Pig
大数据技术-Hive
17篇
多源异构数据传输工具--FlinkX
1篇
大数据技术-Impala
11篇
多源异构数据传输工具--Arrow
多源异构数据传输工具-HData
1篇
多源异构数据传输工具-DataX
2篇
多源异构数据传输工具-Sqoop
2篇
分布式系统基本原理
2篇
分布式机器学习--Mahout
分布式列式存储引擎--Apache Kudu
1篇
分布式文档存储数据库-MongoDB
分布式服务框架--Apache Dubbo
1篇
分布式集群监控- Ganglia
分布式集群监控-Ambari
2篇
分布式协调-zookeeper
1篇
深度学习-tensorflow
1篇
消息中间件--RokcetMQ
1篇
消息中间件--Kafka
3篇
未来技术-万物索引
图数据库--Neo4j
关系型数据库--PostgreSQL
2篇
数据挖掘
72篇
机器学习
76篇
模式识别
42篇
数学科学
10篇
容器技术-Docker
5篇
云原生--Kubernetes
目录
评论 2
被折叠的 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。
余额充值