Hello 各位 300 万大大好,小的是转职生,之前在 Ptt 上获益良多,所以来回馈一下我
的面试经历,如果有公司不想被分享,请来信告知,我会尽速删除,谢谢!
求职时间:2021/07 - 2021/08
Medium 好读版:
https://v3708599.medium.com/appworks-school%E8%BD%89%E8%81%B7%E5%BF%83%E5%BE%97-data-backend-engineer-3cb13c940be7
## 自我介绍
政大传院、商院背景学士。
上一份工作是在迪卡侬做部门经理,过去没接触过程式,是因为工作上需要用到 Google
Sheet 自动化程式脚本,才开始玩起程式,后来觉得技术挺有趣的,于是报名台大
CCclub 的 Python 入门,利用几个月的下班时间学习。(大概一个礼拜花 3-5 个小时摸
)
2020 年底,因为当时的工作发展和未来职涯考量不同,兴起换工作挑战的念头,想说写
程式当职业好像不错,决定报名 AppWorks School 新推出的 Data Engineer 培训。(中
间省略了很多心路历程的转变 XD)
在今年 2 月辞职后,全职认真学习,直至 7 月中于 School 毕业开始找工作。
我觉得自己不算太聪明,理解能力尚可而已(比起班上其他同学啦,但能进 AppWorks
School 的都不会太差?)写的 code 还有待加强,唯一优势就是沟通能力不错,能够清
楚表达自己的需求与逻辑(以前学生实习担任过猎人头、也有几次演讲经验,之前工作上
需要管理团队)。
开发经验大致如下:
有前后端开发经验,基本上是用 Python Flask、Django 写后端,前端没有用框架,就是
乖乖用 JavaScript、HTML、CSS 刻,能用 ajax 就用 ajax,尽量练习开 RESTful API。
Data 相关则是 Airflow、爬虫、Pyspark(一点点)、推荐系统
还有很多没列到的,可以参考 AppWorks School 提供的学习规划
-https://drive.google.com/file/d/13C3Yodr6yc2KFezv_cmx5-B-Ojq7tQgr/view
## 面试结果
最终获得四间 Offer,分别为创业家兄弟(生活市集)、
Rezio(KKday)、炬识科技、趋势科技,待遇在年薪 60 - 80 万间。
## 面试总览
总共投递:海投约 70 间。
最初一两周只投了约 15 间,想说应该就能找到工作了(?后来经过朋友提点,投履历又
不用钱,干嘛把自己的机会限缩在 10 多家公司手里,于是调整方式、不再侷限 data 相
关职缺,只要跟 Python 有关的就投,不管是后端还是爬虫,公司大小也不管,先得到面
试机会再说。实在投太多公司了,这里就不一一列出来,只写出有邀请面试的公司。
- **投递后,直接明确拒绝我的:**
汪喵星球(Backend)、 钛度科技(Backend)、 台湾发展软件科技、湛研科技(
Backend)
再次感谢这些公司迅速地拒绝XD
- **有邀请面试:**
炬识、大庆证券、Arc&Codementor、大数据科技公司、麟数据、趋势科技、木刻思公司、
Sonic Sky(香港商声呐天空)
- **透过 School 的 Hiring Partner 计画,拿到的面试机会:**
Snapask、Rezio(KKday)、创业家兄弟、LikeCoin、aiseed tech
以下就会分开讲每家面试的问题与概述,其实问题很多都很类似,但我真的懒得整理成一
个版本,所以大家就自己看看,看到很多次重复的话,代表那题很重要XD
### School Hiring Partner
先说 AppWorks School 内部媒合面试的流程,跟外面的面试有一点不同,会先经过一次
20 分钟的方便面试,让彼此有初步的认识与了解、再决定有没有后续面试,可以想像就
是一般正式面试前的 Phone Interview。
以下没特别提的话,第一关就是指方便面试。
### 1. Snapask - Data Engineer
#### 第一关: Data Scientist X1
整场面试基本上围绕在我的专案上面,以下是专案介绍完,面试官的提问。因为他们找的
位置就是要好好顾 airflow 的人,所以主要就是问整个 airflow 的流程,到哪个 Task
的时候要跳出,接受到 upstream 的哪些资讯, downstream 会怎么处理。
题目:
- 如果公司内部的 Airflow 是 1.0 版本,你要怎么在不影响数据的前提下,把所有的
task 升级到 2.0 的 Airflow 上面
一面结束后,就会收到作业邀请,这份作业是要我们建置一个爬虫程式,并运用
Airflow 去管理,同时要架设在 Docker 的 Container 上。爬虫本身不难,主要是我没
用过 Docker 建置 Airflow ,被各种环境搞得很痛苦~
写完之后就进到二面。
#### 第二关:技术面试(约 1 hr)
#### 面试官: Data Scientist X3
这一关满硬的,都是在讨论技术题。
刚开始会是 Snapask 介绍他们现在的主要业务、以及找这个缺的原因。现阶段他们的
ETL 是 Data Scientist 在建置管理,但因为业务量愈来愈大,希望找一个专职处理
Data 的工程师,让 Scientist 专心处理 Model 的训练与算法。
问题主要就是再把专案问更细,然后想要了解你除了专案中使用 Airflow 的经验以外,
有没有处理不同来源的资料(Batch or real-time stream)
题目就像是:
- 你会怎么规划 Server 的资料流架构(Mysql、Redis、Session...等)
- Batch 类型的资料,你会如何存放与使用?(像是统计分析报表的原始资料)
- RESTful API 是什么?你在专案中是如何使用?
- 是否有用过 BI 工具的经验,是否有做过这部分的资料串接。
- 对 Data Engineer 这份工作的期望为何?
二面结束后,说如果有机会,就会到最后一面,跟工程部的 Leader 聊聊。
#### 结果:感谢信
原因:这是他们第一个 Data Engineer,希望找有经验的工程师来帮忙建置QQ