backend-interviewer
Backend Interviewer - 后端面试出题助手
This skill analyzes a backend developer candidate's resume and generates targeted, multi-dimensional interview questions with difficulty gradients, covering fundamentals, project depth, coding ability, and AI awareness.
Purpose
Transform a candidate's resume into a structured set of interview questions that:
- Are targeted to the candidate's specific experience and claimed skills
- Have difficulty gradients (basic → advanced → deep) to assess depth of understanding
- Cover multiple dimensions to provide a comprehensive evaluation
- Include reasoning for each question to help interviewers understand what to look for
- Fit within a controllable time budget
When to Use
Invoke this skill when:
- The user provides a candidate's resume (PDF/text) and asks to generate interview questions
- The user asks to prepare for a backend developer interview
- The user wants targeted questions based on a specific candidate's background
- The user mentions "出面试题", "面试考题", "根据简历出题", "prepare interview questions"
Input Documents
Before starting, gather the following:
-
Candidate Resume (required)
- PDF file path or text content
- Example:
resumes/张三-简历.pdf
-
Interview Requirements (optional, will use defaults if not provided)
- Assessment dimensions (e.g., fundamentals, project, coding, AI)
- Total interview duration
- Difficulty level preference
- Specific focus areas
Analysis Process
1. Resume Analysis
Action:
- Read the candidate's resume thoroughly
- Extract and organize key information into a structured profile
Extract the following:
- Basic Info: years of experience, education, current role
- Tech Stack: languages, frameworks, databases, middleware, tools
- Skill Claims: explicitly stated skills and proficiency levels (e.g., "熟悉", "精通", "阅读过源码")
- Project Experience: each project's role, architecture, technical highlights, scale/metrics
- AI Experience: any AI/ML related work or claimed knowledge
- Key Highlights: unique selling points and areas that deserve deep probing
Communication with User (REQUIRED):
- Present a brief summary of the candidate's profile
- Confirm assessment dimensions and time budget
- Ask if there are specific areas the user wants to emphasize or skip
Example Prompt:
- "我已分析完简历,候选人画像如下:[摘要]。您希望从哪些维度考察?默认为:基础/项目/编码/AI,总时长 60 分钟。需要调整吗?"
2. Determine Assessment Dimensions
Default Dimensions (if user doesn't specify):
| 维度 | 时间占比 | 说明 |
|---|---|---|
| 基础考察 | 25% | 语言基础、数据库、缓存、消息队列、网络等 |
| 项目考察 | 25% | 架构理解、方案设计、工程化能力 |
| 编码考察 | 35% | 现场编码,中等难度 |
| AI考察 | 15% | Agent、RAG、MCP、AI Coding 等 |
Dimension Selection Rules:
- Select sub-topics within each dimension based on the candidate's actual tech stack
- Do NOT ask questions about technologies the candidate hasn't used or claimed
- Prioritize areas where the candidate has made strong claims (e.g., "阅读过源码", "精通")
Communication with User (REQUIRED):
- Present proposed dimensions and time allocation
- Confirm or adjust based on user preferences
3. Generate Questions per Dimension
For each assessment dimension, follow these question design principles:
3.1 Fundamentals (基础考察)
Question Design Principles:
- Target skill claims: If resume says "熟悉 XXX 源码", ask about the internals to verify
- Connect to projects: Frame questions around the candidate's actual use cases
- Gradient design:
- 【基础】: Core concepts, can be answered with solid understanding
- 【进阶】: Trade-offs, comparisons, requires real experience
- 【深入】: Source code level, edge cases, requires deep expertise
Sub-topic Selection (pick based on resume, typically 3-4 sub-topics):
- Language fundamentals (Java: JUC/AQS/ThreadPool, Go: goroutine/channel, etc.)
- Database (MySQL: indexing/transactions/optimization, etc.)
- Cache (Redis: data structures/distributed locks/persistence, etc.)
- Message Queue (RocketMQ/Kafka: storage model/reliability/ordering, etc.)
- Network (HTTP/TCP: connection management/troubleshooting, etc.)
- Framework (Spring: IoC/AOP internals, etc.)
Question Density Rule: 1-2 questions per sub-topic to fit time budget. When time is tight, merge related questions into one compound question.
3.2 Project Assessment (项目考察)
Question Design Principles:
- Focus on the primary project: The most recent and most complex project
- Probe from macro to micro: Overall architecture → core technical decisions → implementation details
- Verify ownership level: Distinguish "主导设计" from "参与开发"
- Ask for specifics: Numbers, metrics, concrete decisions rather than vague descriptions
Question Types:
- 【架构全景】: Ask to describe or draw the system architecture end-to-end
- 【方案深挖】: Pick 1-2 technical highlights from resume and drill into details
- 【工程化能力】: Error handling, monitoring, capacity planning, fault tolerance
- 【设计决策】: Why this approach over alternatives? What trade-offs?
Question Density Rule: 3-4 questions covering architecture + 1-2 core technical decisions + 1 engineering practice.
3.3 Coding Assessment (编码考察)
Question Design Principles:
- Relate to the candidate's domain: Design questions around their business scenarios
- Medium difficulty: Should be solvable in 15-20 minutes by a competent developer
- Test multiple abilities: Data structures, OOP design, concurrency, edge cases
- Include follow-up questions: Extend to system design / distributed scenarios
Question Structure:
题目描述(含接口定义和约束条件)
→ 候选人编码实现(15-20min)
→ 口头追问(5min):优化思路、分布式扩展
3.4 AI Assessment (AI考察)
Question Design Principles:
- Start from their experience: If they used Dify/LangChain/etc., ask about that first
- Extend to related concepts: RAG, Agent, MCP, Prompt Engineering
- Combine with their business: How would AI improve their existing systems?
- Assess learning attitude: Openness to AI, critical thinking about AI limitations
Question Types:
- AI platform/tool usage experience and depth
- Conceptual understanding of Agent, RAG, MCP, Skill
- AI Coding practices and risk awareness
- Vision for AI integration in their domain
4. Add Reasoning to Each Question
For every question, provide:
出题原因:Why this question for THIS candidate (link to specific resume content)
考察要点:What the interviewer should listen for in the answer (specific knowledge points, red flags, and bonus points)
5. Time Budget Optimization
Action:
- Calculate total questions vs available time
- Ensure each question has adequate discussion time (2-4 min for basics, 3-5 min for project)
- Mark priority for each question (must-ask vs nice-to-have)
- Provide interviewer guidance on when to skip/adapt
Rules:
- Total questions should fit comfortably within the time budget
- If time is tight, merge related questions rather than asking superficially
- Coding question time = 60-70% of coding section (writing) + 30-40% (discussion)
- Add flexible guidance at the end for time management
6. Compile Final Document
Action:
- Assemble all questions into the output template
- Add candidate summary header
- Add time allocation table
- Add interviewer tips at the end
- Save to the specified output directory
Output Path Convention: plans/<候选人姓名>.md
Communication with User (REQUIRED):
- Present the complete question set for review
- Ask if any questions need adjustment
- Confirm the final version
Output Document Structure
Generate a markdown document following the template in references/interview-template.md.
# <候选人姓名> - <目标岗位>面试题
> **候选人背景**:[简要背景]
>
> **技术栈**:[核心技术栈]
>
> **建议时间分配**:[各维度时间] ,共约 X 分钟
---
## 一、基础考察(Xmin)
### 1.1 <子方向>
**【Q1】** <题目内容>
> **出题原因**:<为什么针对该候选人出此题>
>
> **考察要点**:<面试官应关注的回答要素>
...(更多题目)
---
## 二、项目考察(Xmin)
**【Q_】** <题目内容>
> **出题原因**:<与简历哪个项目/技术点挂钩>
>
> **考察要点**:<判断标准>
...
---
## 三、编码能力考察(Xmin)
### 题目:<题目名称>
> <题目描述与接口定义>
```code
// 代码框架
出题原因:<为什么出此题>
考察要点:<评判维度>
追问:
- <追问问题>
四、AI 能力考察(Xmin)
【Q_】 <题目内容>
出题原因:<出题依据>
考察要点:<评判标准>
...
附:出题思路与时间管理建议
| 考察维度 | 题数 | 时间 | 设计思路 |
|---|---|---|---|
| 基础考察 | X题 | Xmin | <思路> |
| 项目考察 | X题 | Xmin | <思路> |
| 编码考察 | X题 | Xmin | <思路> |
| AI考察 | X题 | Xmin | <思路> |
面试节奏建议:
- <节奏管理提示>
## Communication Pattern
For each phase of the question generation process:
1. **Analyze** - Read resume and extract candidate profile
2. **Confirm** - Present profile summary and confirm assessment requirements with user
3. **Generate** - Create questions with reasoning for each dimension
4. **Review** - Present complete question set for user review
5. **Refine** - Adjust based on user feedback (add/remove/modify questions)
6. **Deliver** - Save final document to output directory
## Workflow Checklist
- [ ] Read and analyze candidate resume
- [ ] Present candidate profile summary to user
- [ ] Confirm assessment dimensions and time budget with user
- [ ] Generate fundamentals questions (with reasoning)
- [ ] Generate project assessment questions (with reasoning)
- [ ] Generate coding assessment question (with reasoning)
- [ ] Generate AI assessment questions (with reasoning)
- [ ] Optimize question count for time budget
- [ ] Present complete question set for user review
- [ ] Adjust based on user feedback
- [ ] Save final document to `plans/<候选人姓名>.md`
## Additional Resources
### Reference Files
- **`references/interview-template.md`** - 面试题输出模板
- **`examples/sample-interview.md`** - 完整面试题示例(基于真实简历生成)
## Key Principles
1. **简历驱动** - Every question must link back to specific resume content; never ask unrelated questions
2. **梯度设计** - Each topic area progresses from basic to deep; stop at the level where the candidate struggles
3. **验证声明** - Prioritize verifying strong claims ("精通", "阅读过源码", "主导设计")
4. **业务结合** - Frame theoretical questions within the candidate's actual project context
5. **时间可控** - Total questions must fit within the agreed time budget; provide skip guidance
6. **一题多察** - Design compound questions that assess multiple abilities simultaneously when time is tight
> **候选人背景**:Java后端,约5年经验,现就职于转转,负责客服系统及智能质控系统开发。此前在用友从事供应链系统开发。
>
> **技术栈**:Spring Boot / RocketMQ / MySQL / Redis / ES / XXL-Job / Dify
>
> **建议时间分配**:基础 15min、项目 15min、编码 20min、AI 10min,共约 60 分钟
---
## 一、基础考察(15min)
### 1.1 Java 语言
**【Q1】** 简历提到你阅读过 AQS 源码,请描述 AQS 的核心数据结构和工作原理。`ReentrantLock` 的公平锁和非公平锁在 AQS 层面的实现差异是什么?
> **出题原因**:简历明确声称"熟悉AQS和多个JUC源码",这是候选人主动提出的技能点,必须验证真实性。AQS 是 JUC 的基石,能讲清楚则说明确实读过源码,讲不清则说明简历注水。
>
> **考察要点**:能否说清 state 变量 + CLH 双向队列的核心结构;公平锁的 `hasQueuedPredecessors()` 判断 vs 非公平锁直接 CAS 抢锁的差异;是否真正阅读过源码,而非仅背诵概念。
**【Q2】** 简历提到熟悉线程池。假设你的 XXL-Job 分片任务中,某个分片的线程池出现了大量任务堆积,你如何排查?`ThreadPoolExecutor` 的四种拒绝策略各适用什么场景?你的质控批处理任务用的是哪种策略,为什么?
> **出题原因**:候选人声称熟悉线程池,且项目中有 XXL-Job 分片批处理的实际场景。将线程池理论与业务场景挂钩,既验证理论功底,又考察线上排查能力和实际选型经验。
>
> **考察要点**:排查思路是否清晰(jstack 线程 dump → 分析阻塞原因 → 检查队列容量/核心线程数配置);四种拒绝策略的区别和适用场景;能否说出自己项目中的真实选择及理由,而非泛泛而谈。
---
### 1.2 MySQL
**【Q3】** 简历提到你有"合理利用索引"的优化经验,请先举一个你实际优化过的慢 SQL 案例。然后回答:联合索引 `(a, b, c)` 在以下查询中哪些能走索引?
```sql
-- Q1
SELECT * FROM t WHERE a = 1 AND c = 3;
-- Q2
SELECT * FROM t WHERE b = 2 AND c = 3;
-- Q3
SELECT * FROM t WHERE a = 1 AND b > 2 AND c = 3;
-- Q4
SELECT * FROM t WHERE a = 1 ORDER BY b LIMIT 10;
出题原因:简历声称有 SQL 优化经验且"熟悉多种索引"。先让候选人讲自己的优化案例验证实战经验,再用联合索引经典题验证理论功底,两部分结合可快速判断 MySQL 功力。
考察要点:能否讲出一个有细节的真实优化案例(慢在哪、怎么分析、怎么优化);对最左前缀匹配原则的掌握(Q1 只走 a、Q2 完全不走、Q3 走 a+b 但 c 无法用索引、Q4 走 a+b 避免排序);是否了解 Index Condition Pushdown(ICP)等进阶优化。
1.3 Redis
【Q4】 你用 Redis Sorted Set 构建了工单优先级队列,Score 映射"工单优先级 + 等待时长"。请问你具体是怎么设计这个 Score 的编码方式的?如何保证优先级高的工单一定先被消费,同时同优先级的工单按等待时长排序?
出题原因:这是候选人简历中的设计亮点——用 Sorted Set 的 Score 同时编码两个维度。需要验证候选人是否真正设计了这个方案,还是只是知道"用了 Sorted Set"。能回答好说明确实深入参与了设计。
考察要点:Score 的编码设计(例如高位放优先级、低位放时间戳的负值);是否考虑了 Score 精度问题(Redis Score 是 double,最大安全整数 2^53);消费时用
ZPOPMIN/ZRANGEBYSCORE+ZREM的原子性保证。
【Q5】 你在质控系统中使用了 Redis 分布式锁来"保障任务不重不漏",你用的是什么方式实现的(SETNX?Redisson?)?如何解决锁过期但业务未执行完的问题?是否了解 Redlock 算法及其争议?
出题原因:分布式锁在两个项目中都有使用,是候选人的高频技术点。不仅要考察"会用",更要考察对边界问题和局限性的认知深度。
考察要点:基本实现方式和 SET NX EX 的原子性要求;看门狗(Watchdog)自动续期机制的了解程度;Redlock 的原理及 Martin Kleppmann 与 Antirez 的经典争论(时钟漂移问题);是否知道分布式锁在极端场景下的不可靠性。
1.4 RocketMQ
【Q6】 你提到阅读过 RocketMQ 源码,请描述一下 Broker 的消息存储模型(CommitLog + ConsumeQueue)。为什么采用这种设计而不是每个 Topic 一个独立文件?另外,你在项目中提到"消息幂等设计",你是怎么实现消费端幂等的?
出题原因:将存储模型和消息幂等合并为一题。存储模型是验证"阅读过源码"这一强声明的试金石;消息幂等是简历中明确提到的工程实践,两者结合可全面考察 RocketMQ 的理论深度和实战能力。
考察要点:CommitLog 顺序追加写(所有 Topic 共享)+ ConsumeQueue 逻辑队列索引的双层结构;这种设计保证磁盘顺序写性能的核心优势;与 Kafka 每个 Partition 独立文件的设计对比;幂等实现方案(数据库唯一键 / Redis 去重表 / 业务状态判断);重试机制和死信队列的处理策略。
二、项目考察(15min)
2.1 架构全景
【Q7】 请描述你的智能质控系统的整体架构,包括数据流转的完整链路:从 IM 会话数据产生 → 数据抽取 → AI 质检 → 人工复检 → 结果归档。每个环节用到了什么技术组件?为什么采用"AI 大模型初筛 + 人工复检"的双检模式,而不是完全依赖 AI?AI 初检的准确率大概是多少?
出题原因:候选人自称是"技术负责人,主导整体架构设计"。描述完整架构是验证其对系统全貌掌握程度最直接的方式——真正主导过的人能完整且有层次地讲出来,仅参与开发的人往往只了解局部模块。同时追问双检模式的决策依据,考察其数据思维和技术判断力。
考察要点:能否完整且清晰地描述端到端数据流;各组件(XXL-Job、RocketMQ、Dify、ES、Redis)在架构中的位置和职责是否准确;能否给出 AI 初检准确率的具体数据;是否有持续优化闭环(AI vs 人工结果对比 → Prompt 迭代)。
2.2 核心方案深挖
【Q8】 你设计了质检单"从生成到归档的全生命周期状态流转规则",请详细描述质检单有哪些状态?状态之间的流转条件是什么?如何防止并发场景下的状态错乱(比如 AI 回调和人工操作同时触发)?
出题原因:状态机设计是简历中的核心亮点,也是衡量系统设计能力的关键。并发场景下的状态一致性是这类系统最容易出问题的地方,能否讲清楚直接反映设计深度。
考察要点:状态数量和流转规则是否完整(生成→AI质检中→AI质检完成→人工复检中→复检完成→申诉中→归档等);并发控制方案(乐观锁/状态前置条件校验/分布式锁);是否考虑了异常兜底(超时未回调、AI 调用失败);状态流转的可追溯性设计。
【Q9】 每日 30w+ 数据的批处理,你的 XXL-Job 分片策略是怎么设计的?分了几个片?每个片处理多少数据?如果某个分片节点挂了怎么办?你提到凌晨 1-5 点完成全量初检,这个时间窗口是怎么评估出来的?
出题原因:30w+ 日增量的批处理是项目中最核心的技术挑战,涉及分布式任务调度、容量评估、故障恢复等多个工程能力维度。能回答出具体数字和评估方法,说明候选人真正深入参与了生产环境的调优。
考察要点:分片策略的具体设计(按 ID 取模/时间范围/业务线);分片数量和单片数据量的确定依据;节点故障时的 failover 策略(XXL-Job 失败重试/分片漂移);时间窗口的评估方法(压测数据/AI 接口 QPS 限制/经验估算);是否有监控和报警机制。
2.3 工程化能力
【Q10】 你在 ASR 对接中设计了"异步回调 + 延迟消息兜底 + 主动轮询补全"三级结构。请问这三级之间是怎么协调的?会不会出现回调已经成功了,但延迟消息又触发了一次轮询导致重复处理?你是怎么避免的?
出题原因:三级容错结构是简历中的工程设计亮点。但多级容错天然面临重复执行的问题,考察候选人是否真正思考过各级之间的协调机制,而不是只是罗列了三个手段听起来很厉害。
考察要点:三级结构的触发条件和优先级关系;幂等性设计如何贯穿三级结构(基于工单ID+外呼记录ID的唯一标识);延迟消息的时间间隔如何设置;是否有状态标记来避免重复处理(翻译完成后标记状态,后续触发直接跳过)。
三、编码能力考察(20min)
题目:实现一个简化版的工单优先级分配队列
结合你的工单自动分配项目经验,请实现一个
WorkOrderDispatcher:
/**
* 工单优先级分配器
* 要求:
* 1. 支持添加工单,每个工单有 id、优先级(1-5,数字越大优先级越高)、创建时间
* 2. 支持添加客服人员,每个客服有 id、最大同时处理工单数
* 3. 调用 dispatch() 时,将当前优先级最高的工单分配给负载最低的客服
* - 同优先级按等待时间最长优先
* - 同负载的客服随机选取
* - 如果所有客服都满载,返回 null
* 4. 支持客服完成工单(释放负载)
* 5. 要求线程安全
*/
public class WorkOrderDispatcher {
// 请实现
void addWorkOrder(WorkOrder order);
void addAgent(Agent agent);
WorkOrder dispatch(); // 返回被分配的工单,无法分配返回null
void completeWorkOrder(String agentId, String orderId);
}
出题原因:题目直接来源于候选人自己做过的工单自动分配系统,候选人有业务背景理解优势,可以更专注于代码实现质量。同时考察数据结构选择、并发安全、面向对象设计等综合编码能力。
考察要点:
- 数据结构选择:工单队列用 PriorityQueue/TreeMap(按优先级+时间排序),客服负载管理的数据结构选择
- 并发安全:锁的粒度选择(全局锁 vs 读写锁 vs 细粒度锁),是否过度同步或遗漏同步
- OOP 设计:WorkOrder 和 Agent 类的设计,Comparable/Comparator 的使用
- 边界条件:空队列、全满载、客服动态上下线等异常情况的处理
- 代码质量:命名规范、代码可读性、方法职责划分
追问(编码完成后口头讨论):
如果要把这个方案从单机扩展到分布式,需要做哪些改造?(结合你实际用 Redis Sorted Set 的经验来回答)
出题原因:将编码题与候选人的真实项目经验串联,考察从"写代码"到"做架构"的思维跨越。
考察要点:能否结合自己的实战经验回答(Redis Sorted Set 做优先级队列);分布式环境下的并发控制(Lua 脚本保证原子性);数据一致性问题(工单分配出去但客服端未确认的状态管理)。
四、AI 能力考察(10min)
4.1 AI 实践认知
【Q11】 你在质控系统中使用了 Dify 平台对接大模型做质检初筛。Prompt 是怎么设计的?如何评估和优化质检的准确率?你觉得 RAG 技术(如质检标准、历史案例的检索增强)在你的场景中有应用空间吗?
出题原因:候选人实际使用了 Dify 平台集成 AI,需要验证其对所用工具的了解深度——是仅仅"调了个 API",还是真正参与了 Prompt 设计和效果优化。同时延伸到 RAG,考察对 AI 技术的学习广度。
考察要点:质检 Prompt 的设计思路(评分维度定义、Few-shot 示例、输出格式约束);准确率评估方法(AI 结果 vs 人工标注对比);优化迭代闭环(bad case 分析 → Prompt 调优);对 RAG 核心思想的理解(检索增强 vs 纯靠模型记忆)。
4.2 Agent & MCP
【Q12】 请谈谈你对 AI Agent 的理解,它和简单的 LLM API 调用有什么区别?MCP(Model Context Protocol)解决了什么问题?如果让你为你的客服系统设计一个 MCP Server,你会暴露哪些工具给 AI Agent 使用?
出题原因:Agent 和 MCP 是当前 AI 工程化的核心方向,与候选人的客服系统业务背景高度相关。不要求深入掌握,但考察其对前沿方向的认知和将 AI 概念与实际业务结合的思考能力。
考察要点:能否区分 Agent 与普通 API 调用(自主决策循环 vs 单次问答);Agent 核心能力(规划/记忆/工具调用);MCP 的基本概念(标准化 AI 工具接口协议);能否结合客服系统设计实际 Tool(查询订单、查看工单历史、发起退款等)和 Resource(质检标准、FAQ 知识库)。
4.3 AI Coding
【Q13】 你在日常工作中有使用 AI Coding 工具吗?你认为 AI Coding 最大的价值和风险分别是什么?在什么场景下你会信任 AI 生成的代码,什么场景下不会?
出题原因:候选人表示"拥抱AI",AI Coding 是开发者最直接接触的 AI 应用。考察候选人对 AI 辅助开发的实际使用经验和批判性思考能力——既不盲目排斥也不盲目信任。
考察要点:是否有实际使用经验和具体场景;对价值的认识(提效、减少模板代码);对风险的认识(安全漏洞、逻辑错误、过度依赖);信任边界的判断力(CRUD 模板可信、复杂并发/安全逻辑需审查)。
附:出题思路与精简说明
| 考察维度 | 题数 | 时间 | 设计思路 |
|---|---|---|---|
| 基础考察 | 6题 | 15min | 紧扣简历技能声明(AQS源码、RocketMQ源码、SQL优化),验证真实掌握程度。砍掉网络模块(非核心技能点)和部分梯度重叠题目 |
| 项目考察 | 4题 | 15min | 聚焦转转质控系统(核心项目),砍掉用友灰度发布(次要项目)和与基础部分重叠的 binlog/可配置化题目 |
| 编码考察 | 1题+1追问 | 20min | 来源于候选人自己的工单分配场景,考察数据结构+并发+OOP 综合能力,追问串联分布式扩展思路 |
| AI考察 | 3题 | 10min | 从 Dify 实践出发,延伸到 RAG/Agent/MCP/AI Coding,考察学习深度和技术视野 |
面试节奏建议:
- 基础部分如果候选人某题回答非常好,可跳过同模块后续题,节省时间留给项目深挖
- 编码部分 15min 写代码 + 5min 讨论追问
- AI 部分作为加分项灵活掌握,如果前面超时可适当压缩
候选人背景:<X年经验,当前公司/职位,核心业务方向>
技术栈:<核心技术栈列表,用 / 分隔>
建议时间分配:<各维度时间分配>,共约 X 分钟
一、基础考察(Xmin)
1.1 <子方向名称>
【Q1】 <题目内容,尽量结合候选人的项目场景提问>
出题原因:<为什么针对该候选人出此题,关联简历中的哪个技能声明或项目经历>
考察要点:<面试官应关注的回答要素,列出关键知识点和判断标准>
1.2 <子方向名称>
【Q_】 <题目内容>
出题原因:<出题依据>
考察要点:<评判标准>
二、项目考察(Xmin)
2.1 架构全景
【Q_】 <请候选人描述核心项目的整体架构和数据流转链路>
出题原因:<验证候选人对系统全貌的掌握程度,区分"主导"与"参与">
考察要点:<完整性、准确性、层次感>
2.2 核心方案深挖
【Q_】 <针对简历中某个技术亮点深入追问>
出题原因:<该亮点是候选人的核心卖点,需验证深度>
考察要点:<具体技术细节、设计决策、异常处理>
2.3 工程化能力
【Q_】 <针对容错/监控/性能优化等工程实践提问>
出题原因:<考察候选人的工程化成熟度>
考察要点:<方案完整性、细节把控>
三、编码能力考察(Xmin)
题目:<题目名称>
<题目描述,说明业务背景和需求>
/**
* <接口说明和约束条件>
*/
<接口定义/代码框架>
出题原因:<为什么选择这个题目,与候选人经历的关联>
考察要点:
- 数据结构选择:<期望的数据结构及理由>
- 并发安全:<如果要求线程安全,关注点是什么>
- OOP 设计:<类设计、接口抽象等>
- 边界条件:<需要处理的边界情况>
- 代码质量:<命名、可读性、职责划分>
追问(编码完成后口头讨论):
<追问问题,通常是性能优化或分布式扩展方向>
出题原因:<追问的考察目标>
考察要点:<期望回答的关键点>
四、AI 能力考察(Xmin)
4.1 <AI 子方向>
【Q_】 <题目内容>
出题原因:<出题依据>
考察要点:<评判标准>
附:出题思路与时间管理建议
| 考察维度 | 题数 | 时间 | 设计思路 |
|---|---|---|---|
| 基础考察 | X题 | Xmin | <核心思路> |
| 项目考察 | X题 | Xmin | <核心思路> |
| 编码考察 | X题+X追问 | Xmin | <核心思路> |
| AI考察 | X题 | Xmin | <核心思路> |
面试节奏建议:
- <提示1:什么情况下可以跳题>
- <提示2:编码部分的时间分配>
- <提示3:哪些部分可以灵活压缩>