一、招聘岗位、人员数量及要求
(一)产品经理 2人
任职条件:
1.大学本科及以上,计算机科学、数学、统计学、信息管理、市场营销等相关专业优先;
2.熟悉大数据处理流程、数据挖掘算法、机器学习模型等技术原理和应用场景;
有成功的大数据产品上线及运营案例,能够独立负责产品从0到1的搭建,熟悉产品全生命周期管理流程;
3.熟练掌握 Axure、Sketch、MindManager 等产品原型设计工具,具备优秀的产品原型设计能力,能够清晰表达产品功能和交互逻辑;
精通数据分析工具,如SQL、Python(pandas、numpy、matplotlib 等库)、Tableau、PowerBI等,能够独立进行数据收集、清洗、分析和可视化展示,从数据中提取有价值的洞察并指导产品决策;
熟悉大数据技术栈,如Hadoop、Spark、Hive、Kafka等,了解云计算平台(如 AWS、Azure、阿里云等),具备一定的技术理解和沟通能力,能够与技术团队有效协作;
4.具备良好的英文读写能力,能够阅读和理解英文技术文档和行业报告。
(二)软件运维工程师 1人
任职条件:
1.大学本科及以上,计算机科学与技术、软件工程、信息管理与信息系统等相关专业优先;
2.熟悉主流操作系统,如 Linux(CentOS、Ubuntu等)、Windows Server系列,掌握操作系统的安装、配置、优化和日常维护;
掌握数据库基础知识,熟悉MySQL、Oracle、SQL Server等主流数据库管理系统的基本操作和维护,具备数据库性能优化和故障处理能力;
了解常用的中间件,如 Tomcat、Nginx、Redis等,熟悉其安装、配置和管理,能够进行简单的性能调优;
熟悉网络基础知识,了解TCP/IP协议栈,掌握网络故障排查的基本方法;
3.技能能力:熟练使用常用的运维工具,如 Ansible、SaltStack、Puppet等自动化运维工具,实现软件系统的自动化部署、配置和管理;
具备良好的问题解决能力,能够快速定位和解决软件系统运行过程中出现的各种故障,包括系统崩溃、性能瓶颈、数据错误等;
掌握日志分析工具,如 ELK Stack(Elasticsearch、Logstash、Kibana)等,能够通过日志分析发现系统潜在问题,并进行针对性优化;
具备一定的脚本编写能力,如Shell 脚本、Python脚本等,能够编写自动化脚本实现日常运维任务的自动化;
熟悉容器化技术,如 Docker、Kubernetes等,了解容器编排和集群管理,有相关实践经验者优先。
(三)项目经理 2人
任职条件:
1.大学本科及以上,计算机科学、软件工程、信息管理、项目管理等相关专业优先;
2.具备带领团队完成复杂项目的经验,能够有效管理多项目并行的情况,具备丰富的团队管理和资源协调能力;
3.熟练掌握项目管理工具,如Jira、Trello、Microsoft Project等,能够运用工具进行项目计划制定、进度跟踪、资源分配等工作;
4.具备一定的数据分析能力,能够理解和分析大数据项目中的数据指标,通过数据分析评估项目进展和效果,为项目决策提供数据支持;
5.了解大数据技术栈,如Hadoop、Spark、Hive、Kafka 等,熟悉数据库原理和常用开发语言(如Java、Python等),能够与技术团队进行有效的沟通和协作;
6.具备出色的沟通能力和团队协作精神,能够清晰表达项目需求和问题,协调各方利益,推动项目顺利进行。
(四)架构师 1人
任职条件:
1.大学本科及以上,计算机科学、软件工程、数学、统计学等相关专业;
2. 熟悉大数据生态系统,深入了解 Hadoop、Spark、Hive、Kafka、Flume、Zookeeper等大数据组件的原理和应用场景,能够熟练运用这些组件进行大数据平台的架构设计和开发 ;
3. 精通 Java、Python等至少一种主流编程语言,具备良好的代码编写习惯和代码优化能力 ;
4. 大数据技术:深入理解分布式系统原理和架构,掌握分布式存储、计算、消息队列等技术,能够设计和实现高并发、高可用的大数据处理系统 ;
5. 数据库知识:熟悉关系型数据库(如 MySQL、PostgreSQL)和非关系型数据库(如 MongoDB、Redis)的原理和应用,具备数据库设计和优化能力 ;
6. 云计算技术:了解主流云计算平台(如 AWS、Azure、阿里云)的架构和服务,能够在云计算环境下进行大数据平台的部署和运维 ;
7. 工具使用:熟练使用 Git、Maven、Gradle 等开发工具,熟悉常用的大数据开发工具和框架,如 IntelliJ IDEA、Eclipse、Hadoop生态工具等。
(五)后端工程师 2人
任职条件:
1.大学本科及以上,计算机科学与技术、软件工程、信息与计算科学等相关专业;
2. 熟悉大数据生态系统,能够熟练运用大数据技术解决实际业务问题 ;
3. 编程语言:精通 Java、Python、Go等至少一种主流后端开发语言,熟悉其语言特性和常用框架,如Spring Boot、Django、Flask、Gin等 ;
4. 大数据技术:熟悉 Hadoop生态体系,包括HDFS、MapReduce、YARN等组件的原理和应用;
熟练掌握 Spark的核心编程和 SQL编程,能够运用Spark进行大规模数据处理和分析;
了解Hive 的数据仓库原理和使用,熟悉Kafka的消息队列机制和应用场景 ;
5. 数据库知识:熟练掌握关系型数据库(如 MySQL、PostgreSQL)的设计、开发和优化,熟悉SQL语言;
掌握非关系型数据库(如 MongoDB、Redis)的基本原理和使用,能够根据业务需求选择合适的数据库技术 ;
6. 其他技能:熟悉 Linux 操作系统,能够熟练使用常用命令进行服务器运维;
掌握常用的版本控制系统(如Git),熟悉常用的开发工具(如IDEA、Eclipse等) ;
(六)数据分析师 1人
任职条件:
1.大学本科及以上,统计学、数学、计算机科学、信息管理、经济学等相关专业;
2.熟悉大数据分析流程和方法,能够独立完成大数据分析任务;
3.了解相关行业的业务模式和数据特点,能够快速理解业务需求并开展数据分析工作;
4.编程语言:熟练掌握Python或R语言,具备数据处理、分析和建模的编程能力,熟悉常用的数据分析库和框架,如 pandas、numpy、matplotlib、seaborn、scikit - learn 等;
5.数据库知识:熟悉SQL语言,能够熟练进行数据查询、提取和处理,掌握关系型数据库(如MySQL、PostgreSQL)和非关系型数据库(如MongoDB、Redis)的基本操作;
6.数据分析工具:熟练使用 Tableau、PowerBI 等数据可视化工具,能够将数据分析结果以直观、美观的可视化报表形式呈现,具备使用 Excel 进行高级数据分析和数据透视表制作的能力;
7.机器学习与统计学:掌握统计学基础知识,如概率论、假设检验、回归分析等,熟悉机器学习算法,如分类算法(决策树、随机森林、支持向量机等)、聚类算法(K-Means、DBSCAN等),能够运用这些算法进行数据分析和预测建模。
(七)服务器运维人员 1人
任职条件:
1.大学本科及以上,计算机科学与技术、网络工程、信息安全等相关专业;
2. 深入了解服务器硬件知识,熟悉主流服务器品牌(如戴尔、惠普、联想等)的架构和配置,能够独立进行服务器硬件的安装、调试和故障排除 ;
3. 熟练掌握至少一种主流操作系统,如 Windows Server 系列、Linux(如CentOS、Ubuntu等),熟悉操作系统的安装、配置、优化和维护 ;
4. 熟悉数据库管理系统,如 MySQL、SQL Server等,具备数据库的日常维护和优化能力,能够处理简单的数据库故障 ;
5. 了解网络基础知识,熟悉 TCP/IP协议栈,掌握交换机、路由器等网络设备的基本配置和管理 ;
6. 技能能力:具备较强的故障排查和解决问题的能力,能够快速定位服务器硬件、软件和网络相关的故障,并采取有效的解决措施。
熟练使用服务器监控工具,如 Zabbix、Nagios 等 ,能够实时监控服务器的性能指标,及时发现潜在问题并进行预警。
掌握服务器自动化运维工具,如 Ansible、SaltStack等,能够实现服务器配置管理和批量部署的自动化。
具备良好的文档撰写能力,能够编写服务器维护手册、故障处理报告等技术文档。
具备一定的英语阅读能力,能够阅读英文技术文档和资料。
二、薪酬福利:
各岗位待遇面议,上岗后与企业签订正式劳动合同,五险二金,双休,法定节假日。
三、工作地点:
唐山市
四、报名邮箱:
投递简历以 “姓名+应聘岗位”形式命名,邮箱 tsrc ys @[申请查看] [申请查看] 。
附件1:报名表 [申请查看]
首页
复制
海报