Hadoop培训班自学ps能找到工作吗吗?

01.课程介绍以及Hadoop的国内外发展状况【传智播客Hadoop从入门到上手工作视频教程】
- 爱酷学习网,免费高清视频教程在线观看
01.课程介绍以及Hadoop的国内外发展状况
距离广告结束还有
现在看起来Hadoop算是Java界做大数据分析的业界标准了,所以如果你要学习大数据的话,Hadoop是一个不可逾越的坎。本套视频教程是传智播客老师分享出来的,在传智播客的官方网站上已经找不到对应的下载链接了,所以如果大家要学习的话可以拿来看看!对Hadoop的讲解也算是到位,大的知识点都讲到了但不是很深入,对于初学者来说非常合适,童鞋们可以在观看了本视频教程后看看Hadoop的其它深入学习的视频教程。
Album Info
请输入正确的邮件(格式:xxx@xxx.xx)
必须填本条信息!找工作,不懂Hadoop还好意思说是搞大数据的?_达内Java培训官网
400-111-8989
找工作,不懂Hadoop还好意思说是搞大数据的?
时间: 14:16
你可能听别人说过,我们生活在“大数据”的环境中。技术驱动着当今世界的发展,计算能力飞速增长,电子设备越来越普遍,因特网越来越容易接入,与此同时,比以往任何时候都多的数据正在被传输和收集。
企业正在以惊人的速度产生数据。仅Facebook每天就会收集250TB的数据。Thompson Reuters News
Analytics(汤普森路透社新闻分析)显示,现在数字数据的总量比2009年的1ZB(1ZB等同于一百万PB)多了两倍多,到2015年有可能将达到7.9ZB,到2020年则有可能会达到35ZB。其他调查机构甚至做出了更高的预测。
随着企业产生并收集的数据量增多,他们开始认识到数据分析的重要性。但是,他们必须先有效地管理好自己拥有的大量信息。这会产生新的挑战:怎样才能存储大量的数据?怎样处理它们?怎样高效地分析它们?既然数据会增加,又如何构建一个可扩展的解决方案?
企业已经意识到:大数据与商业竞争、态势感知、生产力、科学和创新等密切相关,分析这些大数据能够获得巨大的效益。因为商业竞争正在驱动大数据分析,所以大多数企业认同O’Reilly和Croll的观点。他们认为当今企业的生存依赖于存储、处理和分析大量信息的能力,依赖于是否掌控了接受大数据挑战的能力。
当大数据遇到Hadoop
什么是大数据的挑战?怎么存储、处理和分析如此大的数据量,从而从海量数据中获取有用信息?
分析大数据,需要大量的存储空间和超级计算处理能力。在过去的十年中,研究人员尝试了各种的方法来解决数字信息增加带来的问题。首先,把重点放在了给单个计算机更多的存储、处理能力和内存等上面,却发现单台计算机的分析能力并不能解决问题。随着时间的推移,许多组织实现了分布式系统(通过多台计算机分布任务),但是分布式系统的数据分析解决方案往往很复杂,并且容易出错,甚至速度不够快。
在过去的10年中,Hadoop已经从搜索引擎相关的平台,演变为最流行通用的计算平台,用于解决大数据带来的挑战。它正在快速成为下一代基于数据的应用程序的基础。市场研究公司IDC预计,到2016年,Hadoop驱动的大数据市场将超过23亿美元。自从2008年建立第一家以Hadoop为中心的公司Cloudera之后,几十家基于Hadoop的创业公司吸引了数亿美元的风险投资。简而言之,Hadoop为企业提供了一个行之有效的方法,来进行大数据分析。
Hadoop:迎接大数据挑战
Apache的Hadoop通过简化数据密集型、高度并行的分布式应用的实现,以此迎接大数据的挑战。世界各地的企业、大学和其它组织都在使用Hadoop,Hadoop把任务分成任务片,分布在数千台计算机上,从而进行快速分析,并分布式存储大量的数据。Hadoop利用大量廉价的计算机,提供了一个可扩展强,可靠性高的机制;并利用廉价的方式来存储大量数据。Hadoop还提供了新的和改进的分析技术,从而使大量结构化数据的复杂分析变为可能。
Hadoop与以前的分布式方法的区别:
数据先进行分布式存储。
在集群上备份多份数据,从而来提高可靠性和实用性。数据在哪存储就在哪处理,从而消除了带宽瓶颈问题。
此外,Hadoop隐藏了复杂的分布式实现过程,提供了一种简单的编程方法。从而,Hadoop得以提供强大的数据分析机制,包括以下内容:
存储量大——Hadoop能够使应用程序运行在成千上万的计算机和PB级数据上。在过去的十年中,计算机专家认识到,那些曾经只能由超级计算机来处理的高性能应用,可以由大量廉价的计算机一起处理。在集群中,数百台“小”的电脑的聚合计算能力,可以超过一台超级计算机的计算能力,并且价格便宜。Hadoop利用超过数千台机器的集群,在企业可以承受的价格范围内,提供了巨大的存储空间和处理能力。
分布式处理与快速的数据访问——Hadoop集群在提供高效数据存储能力的同时,也提供了快速的数据访问能力。在Hadoop出现之前,应用程序很难并行运行在计算机集群之间。这是因为集群模型在创建共享存储数据时,对I/O性能要求很高。用Hadoop来处理数据,减轻了许多高性能的挑战。此外,Hadoop应用程序处理数据通常都是有序进行的,这就避免了随机的数据访问(磁盘寻道操作),进一步减轻了I/O负载。
可靠性,故障转移和可扩展性——在过去,并行应用程序很难解决集群上机器的可靠性问题。虽然单台机器的可靠性相当高,但是随着群集增加,出故障的概率也随之增加。在数千个节点的集群上,这种日常故障经常发生。由于Hadoop有独特的设计和实施方式,相同的故障将会产生相似的结果。从而,Hadoop可以监测到这些故障,并利用不同的节点重新执行任务。此外,Hadoop有很好的可扩展性,实现无缝地将多个服务器整合到一个集群,并利用它们来存储数据、执行程序。
对于大多数Hadoop用户而言,Hadoop最重要的特征是,将业务规划和基础设施维护进行了清晰的划分。为那些专注于商业业务的用户,隐藏了Hadoop的基础设施的复杂性,并提供了一个易于使用的平台,从而使复杂的分布式计算的问题简单化。
商业界的数据科学
Hadoop的存储和处理大数据的能力经常与“数据科学”挂钩。虽然该词是由彼得·诺尔在20世纪60年代提出的,但是直到最近才引起人们广泛关注。美国雪域大学杰弗里·斯坦顿德教授把“数据科学”定义为“一个专注于搜集、分析、可视化、管理和大量信息保存的新兴领域”。
通常将“数据科学”这一术语用在商业业务分析中,与实际中的“大数据”学科有很大的不同。在数据科学中,业务分析师通过研究现有商业运作模式,来提升业务。
数据科学的目标是从数据提取出数据的真正含义。数据科学家基于数学、统计分析、模式识别、机器学习、高性能计算和数据仓库等来工作,通过分析数据来发现事物发展趋势,并基于收集到的信息开发新业务。
在过去的几年中,许多数据库和编程方面的业务分析师成为了数据科学家。他们在Hadoop生态圈中,使用高级的工具(比如:Hive或者实时Hadoop查询工具)进行数据分析,以做出明智的业务决策。
不只是“一个大数据库”
目前Hadoop的开发,主要是为了更好地支持数据科学家。Hadoop提供了一个强大的计算平台,拥有高扩展性和并行执行能力,非常适合应用于新一代功能强大的数据科学和企业级应用。并且,Hadoop还提供了可伸缩的分布式存储和MapReduce编程模式。企业正在使用Hadoop解决相关业务问题,主要集中在以下几个方面:
为银行和信用卡公司增强欺诈性检测——公司正在利用Hadoop检测交易过程中的欺诈行为。银行通过使用Hadoop,建立大型集群,进行数据分析;并将分析模型应用于银行交易过程,从而提供实时的欺诈行为检测。
社交媒体市场分析——公司目前正在使用Hadoop进行品牌管理、市场推广活动和品牌保护。互联网充满了各种资源,例如博客、版面、新闻、推特和社会媒体数据等。公司利用Hadoop监测、收集、汇聚这些信息,并提取、汇总自身的产品和服务信息,以及竞争对手的相关信息,发掘内在商业模式,或者预测未来的可能趋势,从而更加了解自身的业务。
零售行业购物模式分析——在零售行业,通过使用Hadoop分析商店的位置和它周围人口的购物模式,来确定商店里哪些产品最畅销。
城市发展的交通模式识别——城市发展往往需要依赖交通模式,来确定道路网络扩展的需求。通过监控在一天内不同时间的交通状况,发掘交通模型,城市规划人员就可以确定交通瓶颈。从而决定是否需要增加街道或者车道,来避免在高峰时段的交通拥堵。
内容优化和内容参与——企业越来越专注于优化内容,将其呈现在不同的设备上,并支持不同格式。因此,许多媒体公司需要处理大量的不同的格式的内容。所以,必须规划内容参与模式,才能进行反馈和改进。
网络分析和调解——针对交易数据、网络性能数据、基站数据、设备数据以及其他形式的后台数据等,进行大数据实时分析,能够降低公司运营成本,增强用户体验。
大数据转换——纽约时报要将1100万篇文章(年)转换成PDF文件,这些文章都是从报纸上扫描得到的图片。利用Hadoop技术,这家报社能够在24小时内,将4TB的扫描文章转换为1.5TB的PDF文档。
类似的例子数不胜数。企业正在逐步使用Hadoop进行数据分析,从而作出更好的战略决策。总而言之,数据科学已经进入了商界。
不仅仅是针对商业的大数据工具
虽然这里的大多数例子针对于商业,但是Hadoop也被广泛应用在科学界和公有企业。
最近一项由美国科技基金会进行的研究指出,医疗研究人员已经证明,大数据分析可以被用于分析癌症患者的信息,以提高治疗效果(比如,苹果创始人乔布斯的治疗过程)。警察部门正在使用大数据工具,来预测犯罪可能的发生时间和地点,从而降低了犯罪率。同样的调查也表明,能源方面的官员正在利用大数据工具,分析相关的能量损耗和潜在的电网故障问题。
通过分析大数据可以发现模型和趋势,提高效率,从而用新方法来作出更好的决策。
大数据技术之Hadoop介绍-达内java培训机构
Copyright (C)
Tedu.cn All Rights Reserved 京ICP备号-56 达内时代科技集团有限公司 版权所有
选择城市和中心
达内北京亦庄大学生实训基地
达内北京网络营销中心
达内北京会计中心400-025-8883
3个月后,你的才智与激情都将得以最充分的释放。挑战下一个目标之前,记得和新朋友们喝杯咖啡哟。
引入Hadoop2.x体系
Hadoop2.x的引入是一个完全的大更迭,Hadoop2.x把所有大数据平台组件都通过YARN整合到了一起,包括实时处理的Storm、当今的大数据处理骄子Spark和机器学习算法容器Mahout;而1.x体系只能处理MapReduce并且不提供完善的容错体系。当其他机构还没开设该课程时,我们已经走了很远。
引入Linux的学习
火星人教育Hadoop培训引入了Linux的课程,不管您之前是否接触过Linux,我们都能够让您迅速掌握Linux,带您迈入Hadoop大门的第一次阶梯。
把Java体系完美融入
很多培训机构将Java和Hadoop分裂开来进行授课,这样不仅在费用上给您造成了额外的损失,并且割裂了整个Hadoop课程学习的完整性。我们的学习体系完美的将Java体系融入Hadoop体系,让您花一份钱上两份课。
学员未毕业就拿到多份月薪过万offer,我们的学员就是这么任性!
越来越多的企业需要通过Hadoop进行大数据分析
如果没有基础也不要趴(怕),无论你是否有基础,现在从事什么行业或者是刚刚毕业,只要有兴趣,相信自己,都是可以学习的。
1.Linux的规则与安装
2.Linux文件、目录与磁盘格式
3.Shell简介
1. Linux使用者的管理
2. Linux系统管理员
1. Java语言发展史
2. 开发环境的搭建
3. 程序的执行过程
4. Java语法格式
程序流程控制语句
Java面向对象
1. 面向对象思想
2. 类的概述
3. 对象的本质
4. 类与对象的关
5. 如何设计类
6. 面向对象的三大特性
1. Eclipse的安装与使用
2. JavaAPI介绍
3. Java集合体系架构
6. 多线程概念
8. Java正则表达式
9. Java的高级特性
3.使用DTD规范XML文档
Hadoop平台
1.Hadoop产生背景2. Hadoop在
大数据、云计算中的
位置和关系
3. 国内外Hadoop应用案例介绍
4. 国内Hadoop的就业情况分析
及课程大纲介绍5. 分布式系统概述
6. Hadoop生态圈以及各组成部分
的简介7. Hadoop核心
1. 如何理解map、reduce计算
模型2. 剖析伪分布式下
MapReduce作业的执行过程
3. Yarn模型
5. MapReduce的类型与格式
6. MapReduce开发环境搭建
群集与zookeeper
1. Hadoop集群的搭建
2. Hadoop集群的监控
3. Hadoop集群的管理
4.集群下运行的MapReduce程序
5.ZooKeeper体系结构
6.ZooKeeper集群的安装
1. HBase基础
2. HBase概念
3. HBase安装
4. HBase客户端
1.Hive的安装
2.运行Hive
3.配置HIve
4.Hive服务
5.Hive与传统数据库相比
1. Storm基础知识:包括Storm
的基本概念和Storm应用场景,
体系结构与基本原理,Storm和
Hadoop的对比
2. Storm集群搭建:详细讲述
Storm集群的安装和安装时常
1.Spark简介
2.Spark集群的安装与部署
3.Spark计算模型
4.Spark工作机制详解
5.Spark开发环境配置及流程
Spark性能调优
采用企业级的软件需求+
企业级的开发流程 +
企业级的代码规范 +
企业级的管理方法,为学员
打造企业级的项目开发经验;
毕业设计指导与整理:高级
讲师及资深设计师带领学员
完成毕业作品,以备应聘时
使用。对学习过的所有课程
和自己做一个完美的总结。
上门招聘、企业定制招聘、名企面对面、大型IT专场招聘会,每位学员都能找到适合自己得职位
Hadoop开发工程师火热报名预定咯... ...
零基础脱产班
周一至周五(全天)
高中及中专以上学历无任何计算机基础知识
先学习后付款
名企直通车
周一至周五(全天)
专科及本科以上学历有1年以上互联网行业从业经验
先学习后付款
Copyright & copy ds.cn, All rights reserved. 邮编:100020 总机:(0 客服中心:400-025-8883
北京火星人教育机构版权所有
京ICP备 号Hadoop就业前景薪资怎么样?培训出来好找工作吗?Hadoop就业前景薪资怎么样?培训出来好找工作吗?唯一风百家号Hadoop工程师是目前BAT企业、大数据公司最急需的人才。那hadoop培训出来的就业前景和薪资怎么样呢?科多大数据带你来看看详细的信息。Hadoop能学到什么主要学习hadoop中的四大框架:hdfs、mapreduce、hive、hbase。这四大框架是hadoop最最核心的,学习难度最大的,也是应用最广泛的。除此之外,还有其他的框架,会根据社会需要在课程中考虑是否增加其他框架的教学。总之,我们的课程是根据社会需要来的,都经过了精挑细选,大纲的每个知识点都是多位老师深思熟虑、反复讨论才确定的,绝对不会设置华而不实的课程学习。这个请同学们放心,安心学习吧。给hadoop新手的一封信:Hadoop入门自学及对就业的帮助关于就业前景的问题hadoop云计算的基础。绝大部分的云计算中的分布式存储和计算都是使用Hadoop的。简单的理解的话,云计算是系统工程的蓝图,Hadoop是基础层面的重要的必不可少的工具。并且,云计算在国家十二五规划中也有重要章节讨论,全国各省市都有自己的云计算发展规划。云计算已经被提高到国家中长期发展战略规划中,大家可以想象以后Hadoop和云计算的岗位有多少。正是因为云计算发展如此如火如荼,我们赶紧推出与此相关的课程,目的就是“造富”一方学子。越早学习,越早受益。Hadoop工程师是目前BAT企业、大数据公司最急需的人才。毕业后的薪酬如何起薪拿到10k左右还是很正常的。当然,这个要跟个人能力、面试技巧、入职的公司等都有关系。大家可以参考一下招聘网站上的Hadoop相关职位给出的薪资,月薪15000很正常哦。学习Hadoop需要什么基础Hadoop需要具备javaSE的基础知识,对于javaEE(jsp/servlet/三大框架)没有要求。需要熟练使用linux系统(第一天课程有复习linux操作的时间)。大体上,有这些预备知识就够了。严格的说,只需要具备javaSE知识就足够了。我掌握的javaSE不够好,行吗?没问题!Hadoop中对java的运用是非常浅的,只要跟着老师课堂思路走就行了。非常适合于在校生、刚毕业的、和已有IT工作经验的朋友们,学习hadoop比学习javaEE的基础要求低,学习难度低。学完Hadoop后能达到什么水平简单概括就是hadoop大数据管理员和hadoop开发工程师。hadoop大数据管理员类似于数据库的dba,负责hadoop集群的运行维护工作。hadoop开发工程师是负责编写hadoop程序的,实现算法的。相当于工作两三年的水平。学完Hadoop会影响javaEE工作严格的讲,hadoop与javaEE是两个不同的发展思路,hadoop倾向于底层数据处理部分,javaEE负责系统开发,二者前后相继,没有交叉,相辅相成。一部分javaEE学员,入职面试时是javaEE知识,入职后立刻要求研究hadoop。大家可以想想社会的需求是多么迫切,hadoop人才是多么匮乏!学习Hadoop对算法和数据结构要求高吗?一般海量数据的处理都是自定义存储结构,实现自己的算法,这是业界的通用处理思路。这对我们普通程序员而言要求还是很高的。hadoop的优点就是进行了封装,我们写的算法都是偏向于业务的,不需要创造算法。因此大可放心。但是,大家以后工作的公司可能不使用hadoop去处理大数据,这时候对算法和数据结构的要求就高了。总之,大家以一颗平常心对待学习hadoop,安心学习。只要坚持学学习,等待你们的将是多多的人民币,有时候会超出你的想象!本文由百家号作者上传并发布,百家号仅提供信息发布平台。文章仅代表作者个人观点,不代表百度立场。未经作者许可,不得转载。唯一风百家号最近更新:简介:开开心心一天,充实每一天。作者最新文章相关文章在机器学习、大数据等领域工作,该学Hadoop还是Spark-JobPlus
扫描使用小程序
相信看这篇文章的你们,都和我一样对Hadoop和Apache Spark的选择有一定的疑惑,今天查了不少资料,我们就来谈谈这两种 平台的比较与选择吧,看看对于工作和发展,到底哪个更好。一、Hadoop与Spark1.SparkSpark是一个用来实现快速而通用的集群计算的平台。速度方面,Spark扩展了广泛使用的MapReduce计算模型,而且高效地支持更多计算模式,包括交互式查询和流处理。Spark项目包含多个紧密集成的组件。Spark的核心是一个对由很多计算任务组成的、运行在多个工作机器或者是一个计算集群上的应用进行调度、分发以及监控的计算引擎。2.HadoopHadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。二、异与同解决问题的层面不一样首先,Hadoop和Apache Spark两者都是大数据框架,但是各自存在的目的不尽相同。Hadoop实质上更多是一个分布式数据基础设施: 它将巨大的数据集分派到一个由普通计算机组成的集群中的多个节点进行存储,意味着您不需要购买和维护昂贵的服务器硬件。同时,Hadoop还会索引和跟踪这些数据,让大数据处理和分析效率达到前所未有的高度。Spark,则是那么一个专门用来对那些分布式存储的大数据进行处理的工具,它并不会进行分布式数据的存储。两者可合可分Hadoop除了提供为大家所共识的HDFS分布式数据存储功能之外,还提供了叫做MapReduce的数据处理功能。所以这里我们完全可以抛开Spark,使用Hadoop自身的MapReduce来完成数据的处理。相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,毕竟它没有提供文件管理系统,所以,它必须和其他的分布式文件系统进行集成才能运作。这里我们可以选择Hadoop的HDFS,也可以选择其他的基于云的数据系统平台。但Spark默认来说还是被用在Hadoop上面的,毕竟,大家都认为它们的结合是最好的。顺带说一下什么是mapreduce:我们要数图书馆中的所有书。你数1号书架,我数2号书架。这就是“Map”。我们人越多,数书就更快。现在我们到一起,把所有人的统计数加在一起。这就是“Reduce”。Spark数据处理速度秒杀MapReduceSpark因为其处理数据的方式不一样,会比MapReduce快上很多。MapReduce是分步对数据进行处理的: ”从集群中读取数据,进行一次处理,将结果写到集群,从集群中读取更新后的数据,进行下一次的处理,将结果写到集群,等等…“ Booz Allen Hamilton的数据科学家Kirk Borne如此解析。反观Spark,它会在内存中以接近“实时”的时间完成所有的数据分析:“从集群中读取数据,完成所有必须的分析处理,将结果写回集群,完成,” Born说道。Spark的批处理速度比MapReduce快近10倍,内存中的数据分析速度则快近100倍。如果需要处理的数据和结果需求大部分情况下是静态的,且你也有耐心等待批处理的完成的话,MapReduce的处理方式也是完全可以接受的。但如果你需要对流数据进行分析,比如那些来自于工厂的传感器收集回来的数据,又或者说你的应用是需要多重数据处理的,那么你也许更应该使用Spark进行处理。大部分机器学习算法都是需要多重数据处理的。此外,通常会用到Spark的应用场景有以下方面:实时的市场活动,在线产品推荐,网络安全分析,机器日记监控等。Recovery & 恢复两者的灾难恢复方式迥异,但是都很不错。因为Hadoop将每次处理后的数据都写入到磁盘上,所以其天生就能很有弹性的对系统错误进行处理。Spark的数据对象存储在分布于数据集群中的叫做弹性分布式数据集(RDD: Resilient Distributed Dataset)中。“这些数据对象既可以放在内存,也可以放在磁盘,所以RDD同样也可以提供完成的灾难恢复功能”三、学哪个?其实,正如所了解的那样,Spark的确是大数据行业中的后起之秀,与Hadoop相比,Spark有很多的优势。Hadoop之所以在大数据行业能够得到充分的认同主要是因为:·Hadoop解决了大数据的可靠存储和处理问题;·Hadoop的开源性,这能让很多大数据从业人员在里面找到灵感,方便实用;·Hadoop经过了多年的开发,拥有完整的生态系统。·HDFS在由普通PC组成的集群上提供高可靠的文件存储,通过将块保存多个副本的办法解决服务器或硬板坏掉的问题。·MapReduce通过简单的Mapper和Reducer的抽象提供一个变成模型,可以在一个由几十台至上百台的PC组成的不可靠集群上并发地,分布式地处理大量的数据集,而把并发、分布式和故障恢复等计算细节隐藏起来。Hadoop也有许多局限和不足,笼统的讲,在数据量不断扩大的情况下,Hadoop的运算速度会越发显得吃力。虽然现阶段,Hadoop在大数据行业内仍然有很高频率的应用,但不难想象在若干年后,数据量又上升几个数量级时,Hadoop所面临的窘境。而Spark的运算速度是Hadoop的百分之一甚至更快,因此,在未来,Spark必然会取代Hadoop,主宰大数据行业。那是不是就可以跳过Hadoop,只学Spark呢?当然不是,有以下原因:·现阶段,Hadoop仍然主导着大数据领域,我们可以学习先进的技术,但更是为了现阶段的就业,就目前阶段而言,学大数据必学Hadoop。·MapReduce中有许多经典的思想,值得我们学习,这对我们理解大数据十分有帮助。·确切的讲,Spark要替换的是Hadoop中的MapReduce,而不是Hadoop,Hadoop是一个工具包,而Spark和MapReduce一样,只是一种工具而已。结论:如果你是往业界的算法工程方面发展,那么两个都要学,Hadoop要了解,Spark要熟悉。如果你是大数据研究人员,那么要精通这两种。所以,这里的建议是,对于有志于在ML和大数据等领域发展的各位,可以按照Java -& Hadoop -& Spark这样的路径,如果你有C++和SQL的基础,那么学习曲线将不会特别陡峭,对于spark来说,学一点Scala则会更有帮助
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
用户评价(0)
12807人浏览
5819人浏览
8309人浏览
10838人浏览
2433人浏览
3627人浏览
13280人浏览
5720人浏览
6584人浏览
微信扫一扫
微博扫一扫
扫描使用APP
扫描使用小程序

我要回帖

更多关于 自学前端能找到工作吗 的文章

 

随机推荐