skills/skills.netease.im/backend-interviewer

backend-interviewer

SKILL.md

Backend Interviewer - 后端面试出题助手

This skill analyzes a backend developer candidate's resume and generates targeted, multi-dimensional interview questions with difficulty gradients, covering fundamentals, project depth, coding ability, and AI awareness.

Purpose

Transform a candidate's resume into a structured set of interview questions that:

  • Are targeted to the candidate's specific experience and claimed skills
  • Have difficulty gradients (basic → advanced → deep) to assess depth of understanding
  • Cover multiple dimensions to provide a comprehensive evaluation
  • Include reasoning for each question to help interviewers understand what to look for
  • Fit within a controllable time budget

When to Use

Invoke this skill when:

  • The user provides a candidate's resume (PDF/text) and asks to generate interview questions
  • The user asks to prepare for a backend developer interview
  • The user wants targeted questions based on a specific candidate's background
  • The user mentions "出面试题", "面试考题", "根据简历出题", "prepare interview questions"

Input Documents

Before starting, gather the following:

  1. Candidate Resume (required)

    • PDF file path or text content
    • Example: resumes/张三-简历.pdf
  2. Interview Requirements (optional, will use defaults if not provided)

    • Assessment dimensions (e.g., fundamentals, project, coding, AI)
    • Total interview duration
    • Difficulty level preference
    • Specific focus areas

Analysis Process

1. Resume Analysis

Action:

  • Read the candidate's resume thoroughly
  • Extract and organize key information into a structured profile

Extract the following:

  • Basic Info: years of experience, education, current role
  • Tech Stack: languages, frameworks, databases, middleware, tools
  • Skill Claims: explicitly stated skills and proficiency levels (e.g., "熟悉", "精通", "阅读过源码")
  • Project Experience: each project's role, architecture, technical highlights, scale/metrics
  • AI Experience: any AI/ML related work or claimed knowledge
  • Key Highlights: unique selling points and areas that deserve deep probing

Communication with User (REQUIRED):

  • Present a brief summary of the candidate's profile
  • Confirm assessment dimensions and time budget
  • Ask if there are specific areas the user wants to emphasize or skip

Example Prompt:

  • "我已分析完简历,候选人画像如下:[摘要]。您希望从哪些维度考察?默认为:基础/项目/编码/AI,总时长 60 分钟。需要调整吗?"

2. Determine Assessment Dimensions

Default Dimensions (if user doesn't specify):

维度 时间占比 说明
基础考察 25% 语言基础、数据库、缓存、消息队列、网络等
项目考察 25% 架构理解、方案设计、工程化能力
编码考察 35% 现场编码,中等难度
AI考察 15% Agent、RAG、MCP、AI Coding 等

Dimension Selection Rules:

  • Select sub-topics within each dimension based on the candidate's actual tech stack
  • Do NOT ask questions about technologies the candidate hasn't used or claimed
  • Prioritize areas where the candidate has made strong claims (e.g., "阅读过源码", "精通")

Communication with User (REQUIRED):

  • Present proposed dimensions and time allocation
  • Confirm or adjust based on user preferences

3. Generate Questions per Dimension

For each assessment dimension, follow these question design principles:

3.1 Fundamentals (基础考察)

Question Design Principles:

  • Target skill claims: If resume says "熟悉 XXX 源码", ask about the internals to verify
  • Connect to projects: Frame questions around the candidate's actual use cases
  • Gradient design:
    • 【基础】: Core concepts, can be answered with solid understanding
    • 【进阶】: Trade-offs, comparisons, requires real experience
    • 【深入】: Source code level, edge cases, requires deep expertise

Sub-topic Selection (pick based on resume, typically 3-4 sub-topics):

  • Language fundamentals (Java: JUC/AQS/ThreadPool, Go: goroutine/channel, etc.)
  • Database (MySQL: indexing/transactions/optimization, etc.)
  • Cache (Redis: data structures/distributed locks/persistence, etc.)
  • Message Queue (RocketMQ/Kafka: storage model/reliability/ordering, etc.)
  • Network (HTTP/TCP: connection management/troubleshooting, etc.)
  • Framework (Spring: IoC/AOP internals, etc.)

Question Density Rule: 1-2 questions per sub-topic to fit time budget. When time is tight, merge related questions into one compound question.

3.2 Project Assessment (项目考察)

Question Design Principles:

  • Focus on the primary project: The most recent and most complex project
  • Probe from macro to micro: Overall architecture → core technical decisions → implementation details
  • Verify ownership level: Distinguish "主导设计" from "参与开发"
  • Ask for specifics: Numbers, metrics, concrete decisions rather than vague descriptions

Question Types:

  • 【架构全景】: Ask to describe or draw the system architecture end-to-end
  • 【方案深挖】: Pick 1-2 technical highlights from resume and drill into details
  • 【工程化能力】: Error handling, monitoring, capacity planning, fault tolerance
  • 【设计决策】: Why this approach over alternatives? What trade-offs?

Question Density Rule: 3-4 questions covering architecture + 1-2 core technical decisions + 1 engineering practice.

3.3 Coding Assessment (编码考察)

Question Design Principles:

  • Relate to the candidate's domain: Design questions around their business scenarios
  • Medium difficulty: Should be solvable in 15-20 minutes by a competent developer
  • Test multiple abilities: Data structures, OOP design, concurrency, edge cases
  • Include follow-up questions: Extend to system design / distributed scenarios

Question Structure:

题目描述(含接口定义和约束条件)
→ 候选人编码实现(15-20min)
→ 口头追问(5min):优化思路、分布式扩展

3.4 AI Assessment (AI考察)

Question Design Principles:

  • Start from their experience: If they used Dify/LangChain/etc., ask about that first
  • Extend to related concepts: RAG, Agent, MCP, Prompt Engineering
  • Combine with their business: How would AI improve their existing systems?
  • Assess learning attitude: Openness to AI, critical thinking about AI limitations

Question Types:

  • AI platform/tool usage experience and depth
  • Conceptual understanding of Agent, RAG, MCP, Skill
  • AI Coding practices and risk awareness
  • Vision for AI integration in their domain

4. Add Reasoning to Each Question

For every question, provide:

出题原因:Why this question for THIS candidate (link to specific resume content)

考察要点:What the interviewer should listen for in the answer (specific knowledge points, red flags, and bonus points)

5. Time Budget Optimization

Action:

  • Calculate total questions vs available time
  • Ensure each question has adequate discussion time (2-4 min for basics, 3-5 min for project)
  • Mark priority for each question (must-ask vs nice-to-have)
  • Provide interviewer guidance on when to skip/adapt

Rules:

  • Total questions should fit comfortably within the time budget
  • If time is tight, merge related questions rather than asking superficially
  • Coding question time = 60-70% of coding section (writing) + 30-40% (discussion)
  • Add flexible guidance at the end for time management

6. Compile Final Document

Action:

  • Assemble all questions into the output template
  • Add candidate summary header
  • Add time allocation table
  • Add interviewer tips at the end
  • Save to the specified output directory

Output Path Convention: plans/<候选人姓名>.md

Communication with User (REQUIRED):

  • Present the complete question set for review
  • Ask if any questions need adjustment
  • Confirm the final version

Output Document Structure

Generate a markdown document following the template in references/interview-template.md.

# <候选人姓名> - <目标岗位>面试题

> **候选人背景**:[简要背景]
>
> **技术栈**:[核心技术栈]
>
> **建议时间分配**:[各维度时间] ,共约 X 分钟

---

## 一、基础考察(Xmin)

### 1.1 <子方向>

**【Q1】** <题目内容>

> **出题原因**<为什么针对该候选人出此题>
>
> **考察要点**<面试官应关注的回答要素>

...(更多题目)

---

## 二、项目考察(Xmin)

**【Q_】** <题目内容>

> **出题原因**:<与简历哪个项目/技术点挂钩>
>
> **考察要点**<判断标准>

...

---

## 三、编码能力考察(Xmin)

### 题目:<题目名称>

> <题目描述与接口定义>

```code
// 代码框架

出题原因:<为什么出此题>

考察要点:<评判维度>

追问:

  • <追问问题>

四、AI 能力考察(Xmin)

【Q_】 <题目内容>

出题原因:<出题依据>

考察要点:<评判标准>

...


附:出题思路与时间管理建议

考察维度 题数 时间 设计思路
基础考察 X题 Xmin <思路>
项目考察 X题 Xmin <思路>
编码考察 X题 Xmin <思路>
AI考察 X题 Xmin <思路>

面试节奏建议

  • <节奏管理提示>

## Communication Pattern

For each phase of the question generation process:

1. **Analyze** - Read resume and extract candidate profile
2. **Confirm** - Present profile summary and confirm assessment requirements with user
3. **Generate** - Create questions with reasoning for each dimension
4. **Review** - Present complete question set for user review
5. **Refine** - Adjust based on user feedback (add/remove/modify questions)
6. **Deliver** - Save final document to output directory

## Workflow Checklist

- [ ] Read and analyze candidate resume
- [ ] Present candidate profile summary to user
- [ ] Confirm assessment dimensions and time budget with user
- [ ] Generate fundamentals questions (with reasoning)
- [ ] Generate project assessment questions (with reasoning)
- [ ] Generate coding assessment question (with reasoning)
- [ ] Generate AI assessment questions (with reasoning)
- [ ] Optimize question count for time budget
- [ ] Present complete question set for user review
- [ ] Adjust based on user feedback
- [ ] Save final document to `plans/<候选人姓名>.md`

## Additional Resources

### Reference Files
- **`references/interview-template.md`** - 面试题输出模板
- **`examples/sample-interview.md`** - 完整面试题示例(基于真实简历生成)

## Key Principles

1. **简历驱动** - Every question must link back to specific resume content; never ask unrelated questions
2. **梯度设计** - Each topic area progresses from basic to deep; stop at the level where the candidate struggles
3. **验证声明** - Prioritize verifying strong claims ("精通", "阅读过源码", "主导设计")
4. **业务结合** - Frame theoretical questions within the candidate's actual project context
5. **时间可控** - Total questions must fit within the agreed time budget; provide skip guidance
6. **一题多察** - Design compound questions that assess multiple abilities simultaneously when time is tight

> **候选人背景**:Java后端,约5年经验,现就职于转转,负责客服系统及智能质控系统开发。此前在用友从事供应链系统开发。
>
> **技术栈**:Spring Boot / RocketMQ / MySQL / Redis / ES / XXL-Job / Dify
>
> **建议时间分配**:基础 15min、项目 15min、编码 20min、AI 10min,共约 60 分钟

---

## 一、基础考察(15min)

### 1.1 Java 语言

**【Q1】** 简历提到你阅读过 AQS 源码,请描述 AQS 的核心数据结构和工作原理。`ReentrantLock` 的公平锁和非公平锁在 AQS 层面的实现差异是什么?

> **出题原因**:简历明确声称"熟悉AQS和多个JUC源码",这是候选人主动提出的技能点,必须验证真实性。AQS 是 JUC 的基石,能讲清楚则说明确实读过源码,讲不清则说明简历注水。
>
> **考察要点**:能否说清 state 变量 + CLH 双向队列的核心结构;公平锁的 `hasQueuedPredecessors()` 判断 vs 非公平锁直接 CAS 抢锁的差异;是否真正阅读过源码,而非仅背诵概念。

**【Q2】** 简历提到熟悉线程池。假设你的 XXL-Job 分片任务中,某个分片的线程池出现了大量任务堆积,你如何排查?`ThreadPoolExecutor` 的四种拒绝策略各适用什么场景?你的质控批处理任务用的是哪种策略,为什么?

> **出题原因**:候选人声称熟悉线程池,且项目中有 XXL-Job 分片批处理的实际场景。将线程池理论与业务场景挂钩,既验证理论功底,又考察线上排查能力和实际选型经验。
>
> **考察要点**:排查思路是否清晰(jstack 线程 dump → 分析阻塞原因 → 检查队列容量/核心线程数配置);四种拒绝策略的区别和适用场景;能否说出自己项目中的真实选择及理由,而非泛泛而谈。

---

### 1.2 MySQL

**【Q3】** 简历提到你有"合理利用索引"的优化经验,请先举一个你实际优化过的慢 SQL 案例。然后回答:联合索引 `(a, b, c)` 在以下查询中哪些能走索引?

```sql
-- Q1
SELECT * FROM t WHERE a = 1 AND c = 3;
-- Q2
SELECT * FROM t WHERE b = 2 AND c = 3;
-- Q3
SELECT * FROM t WHERE a = 1 AND b > 2 AND c = 3;
-- Q4
SELECT * FROM t WHERE a = 1 ORDER BY b LIMIT 10;

出题原因:简历声称有 SQL 优化经验且"熟悉多种索引"。先让候选人讲自己的优化案例验证实战经验,再用联合索引经典题验证理论功底,两部分结合可快速判断 MySQL 功力。

考察要点:能否讲出一个有细节的真实优化案例(慢在哪、怎么分析、怎么优化);对最左前缀匹配原则的掌握(Q1 只走 a、Q2 完全不走、Q3 走 a+b 但 c 无法用索引、Q4 走 a+b 避免排序);是否了解 Index Condition Pushdown(ICP)等进阶优化。


1.3 Redis

【Q4】 你用 Redis Sorted Set 构建了工单优先级队列,Score 映射"工单优先级 + 等待时长"。请问你具体是怎么设计这个 Score 的编码方式的?如何保证优先级高的工单一定先被消费,同时同优先级的工单按等待时长排序?

出题原因:这是候选人简历中的设计亮点——用 Sorted Set 的 Score 同时编码两个维度。需要验证候选人是否真正设计了这个方案,还是只是知道"用了 Sorted Set"。能回答好说明确实深入参与了设计。

考察要点:Score 的编码设计(例如高位放优先级、低位放时间戳的负值);是否考虑了 Score 精度问题(Redis Score 是 double,最大安全整数 2^53);消费时用 ZPOPMIN / ZRANGEBYSCORE + ZREM 的原子性保证。

【Q5】 你在质控系统中使用了 Redis 分布式锁来"保障任务不重不漏",你用的是什么方式实现的(SETNX?Redisson?)?如何解决锁过期但业务未执行完的问题?是否了解 Redlock 算法及其争议?

出题原因:分布式锁在两个项目中都有使用,是候选人的高频技术点。不仅要考察"会用",更要考察对边界问题和局限性的认知深度。

考察要点:基本实现方式和 SET NX EX 的原子性要求;看门狗(Watchdog)自动续期机制的了解程度;Redlock 的原理及 Martin Kleppmann 与 Antirez 的经典争论(时钟漂移问题);是否知道分布式锁在极端场景下的不可靠性。


1.4 RocketMQ

【Q6】 你提到阅读过 RocketMQ 源码,请描述一下 Broker 的消息存储模型(CommitLog + ConsumeQueue)。为什么采用这种设计而不是每个 Topic 一个独立文件?另外,你在项目中提到"消息幂等设计",你是怎么实现消费端幂等的?

出题原因:将存储模型和消息幂等合并为一题。存储模型是验证"阅读过源码"这一强声明的试金石;消息幂等是简历中明确提到的工程实践,两者结合可全面考察 RocketMQ 的理论深度和实战能力。

考察要点:CommitLog 顺序追加写(所有 Topic 共享)+ ConsumeQueue 逻辑队列索引的双层结构;这种设计保证磁盘顺序写性能的核心优势;与 Kafka 每个 Partition 独立文件的设计对比;幂等实现方案(数据库唯一键 / Redis 去重表 / 业务状态判断);重试机制和死信队列的处理策略。


二、项目考察(15min)

2.1 架构全景

【Q7】 请描述你的智能质控系统的整体架构,包括数据流转的完整链路:从 IM 会话数据产生 → 数据抽取 → AI 质检 → 人工复检 → 结果归档。每个环节用到了什么技术组件?为什么采用"AI 大模型初筛 + 人工复检"的双检模式,而不是完全依赖 AI?AI 初检的准确率大概是多少?

出题原因:候选人自称是"技术负责人,主导整体架构设计"。描述完整架构是验证其对系统全貌掌握程度最直接的方式——真正主导过的人能完整且有层次地讲出来,仅参与开发的人往往只了解局部模块。同时追问双检模式的决策依据,考察其数据思维和技术判断力。

考察要点:能否完整且清晰地描述端到端数据流;各组件(XXL-Job、RocketMQ、Dify、ES、Redis)在架构中的位置和职责是否准确;能否给出 AI 初检准确率的具体数据;是否有持续优化闭环(AI vs 人工结果对比 → Prompt 迭代)。

2.2 核心方案深挖

【Q8】 你设计了质检单"从生成到归档的全生命周期状态流转规则",请详细描述质检单有哪些状态?状态之间的流转条件是什么?如何防止并发场景下的状态错乱(比如 AI 回调和人工操作同时触发)?

出题原因:状态机设计是简历中的核心亮点,也是衡量系统设计能力的关键。并发场景下的状态一致性是这类系统最容易出问题的地方,能否讲清楚直接反映设计深度。

考察要点:状态数量和流转规则是否完整(生成→AI质检中→AI质检完成→人工复检中→复检完成→申诉中→归档等);并发控制方案(乐观锁/状态前置条件校验/分布式锁);是否考虑了异常兜底(超时未回调、AI 调用失败);状态流转的可追溯性设计。

【Q9】 每日 30w+ 数据的批处理,你的 XXL-Job 分片策略是怎么设计的?分了几个片?每个片处理多少数据?如果某个分片节点挂了怎么办?你提到凌晨 1-5 点完成全量初检,这个时间窗口是怎么评估出来的?

出题原因:30w+ 日增量的批处理是项目中最核心的技术挑战,涉及分布式任务调度、容量评估、故障恢复等多个工程能力维度。能回答出具体数字和评估方法,说明候选人真正深入参与了生产环境的调优。

考察要点:分片策略的具体设计(按 ID 取模/时间范围/业务线);分片数量和单片数据量的确定依据;节点故障时的 failover 策略(XXL-Job 失败重试/分片漂移);时间窗口的评估方法(压测数据/AI 接口 QPS 限制/经验估算);是否有监控和报警机制。

2.3 工程化能力

【Q10】 你在 ASR 对接中设计了"异步回调 + 延迟消息兜底 + 主动轮询补全"三级结构。请问这三级之间是怎么协调的?会不会出现回调已经成功了,但延迟消息又触发了一次轮询导致重复处理?你是怎么避免的?

出题原因:三级容错结构是简历中的工程设计亮点。但多级容错天然面临重复执行的问题,考察候选人是否真正思考过各级之间的协调机制,而不是只是罗列了三个手段听起来很厉害。

考察要点:三级结构的触发条件和优先级关系;幂等性设计如何贯穿三级结构(基于工单ID+外呼记录ID的唯一标识);延迟消息的时间间隔如何设置;是否有状态标记来避免重复处理(翻译完成后标记状态,后续触发直接跳过)。


三、编码能力考察(20min)

题目:实现一个简化版的工单优先级分配队列

结合你的工单自动分配项目经验,请实现一个 WorkOrderDispatcher

/**
 * 工单优先级分配器
 * 要求:
 * 1. 支持添加工单,每个工单有 id、优先级(1-5,数字越大优先级越高)、创建时间
 * 2. 支持添加客服人员,每个客服有 id、最大同时处理工单数
 * 3. 调用 dispatch() 时,将当前优先级最高的工单分配给负载最低的客服
 *    - 同优先级按等待时间最长优先
 *    - 同负载的客服随机选取
 *    - 如果所有客服都满载,返回 null
 * 4. 支持客服完成工单(释放负载)
 * 5. 要求线程安全
 */
public class WorkOrderDispatcher {
    // 请实现
    void addWorkOrder(WorkOrder order);
    void addAgent(Agent agent);
    WorkOrder dispatch();  // 返回被分配的工单,无法分配返回null
    void completeWorkOrder(String agentId, String orderId);
}

出题原因:题目直接来源于候选人自己做过的工单自动分配系统,候选人有业务背景理解优势,可以更专注于代码实现质量。同时考察数据结构选择、并发安全、面向对象设计等综合编码能力。

考察要点

  • 数据结构选择:工单队列用 PriorityQueue/TreeMap(按优先级+时间排序),客服负载管理的数据结构选择
  • 并发安全:锁的粒度选择(全局锁 vs 读写锁 vs 细粒度锁),是否过度同步或遗漏同步
  • OOP 设计:WorkOrder 和 Agent 类的设计,Comparable/Comparator 的使用
  • 边界条件:空队列、全满载、客服动态上下线等异常情况的处理
  • 代码质量:命名规范、代码可读性、方法职责划分

追问(编码完成后口头讨论):

如果要把这个方案从单机扩展到分布式,需要做哪些改造?(结合你实际用 Redis Sorted Set 的经验来回答)

出题原因:将编码题与候选人的真实项目经验串联,考察从"写代码"到"做架构"的思维跨越。

考察要点:能否结合自己的实战经验回答(Redis Sorted Set 做优先级队列);分布式环境下的并发控制(Lua 脚本保证原子性);数据一致性问题(工单分配出去但客服端未确认的状态管理)。


四、AI 能力考察(10min)

4.1 AI 实践认知

【Q11】 你在质控系统中使用了 Dify 平台对接大模型做质检初筛。Prompt 是怎么设计的?如何评估和优化质检的准确率?你觉得 RAG 技术(如质检标准、历史案例的检索增强)在你的场景中有应用空间吗?

出题原因:候选人实际使用了 Dify 平台集成 AI,需要验证其对所用工具的了解深度——是仅仅"调了个 API",还是真正参与了 Prompt 设计和效果优化。同时延伸到 RAG,考察对 AI 技术的学习广度。

考察要点:质检 Prompt 的设计思路(评分维度定义、Few-shot 示例、输出格式约束);准确率评估方法(AI 结果 vs 人工标注对比);优化迭代闭环(bad case 分析 → Prompt 调优);对 RAG 核心思想的理解(检索增强 vs 纯靠模型记忆)。

4.2 Agent & MCP

【Q12】 请谈谈你对 AI Agent 的理解,它和简单的 LLM API 调用有什么区别?MCP(Model Context Protocol)解决了什么问题?如果让你为你的客服系统设计一个 MCP Server,你会暴露哪些工具给 AI Agent 使用?

出题原因:Agent 和 MCP 是当前 AI 工程化的核心方向,与候选人的客服系统业务背景高度相关。不要求深入掌握,但考察其对前沿方向的认知和将 AI 概念与实际业务结合的思考能力。

考察要点:能否区分 Agent 与普通 API 调用(自主决策循环 vs 单次问答);Agent 核心能力(规划/记忆/工具调用);MCP 的基本概念(标准化 AI 工具接口协议);能否结合客服系统设计实际 Tool(查询订单、查看工单历史、发起退款等)和 Resource(质检标准、FAQ 知识库)。

4.3 AI Coding

【Q13】 你在日常工作中有使用 AI Coding 工具吗?你认为 AI Coding 最大的价值和风险分别是什么?在什么场景下你会信任 AI 生成的代码,什么场景下不会?

出题原因:候选人表示"拥抱AI",AI Coding 是开发者最直接接触的 AI 应用。考察候选人对 AI 辅助开发的实际使用经验和批判性思考能力——既不盲目排斥也不盲目信任。

考察要点:是否有实际使用经验和具体场景;对价值的认识(提效、减少模板代码);对风险的认识(安全漏洞、逻辑错误、过度依赖);信任边界的判断力(CRUD 模板可信、复杂并发/安全逻辑需审查)。


附:出题思路与精简说明

考察维度 题数 时间 设计思路
基础考察 6题 15min 紧扣简历技能声明(AQS源码、RocketMQ源码、SQL优化),验证真实掌握程度。砍掉网络模块(非核心技能点)和部分梯度重叠题目
项目考察 4题 15min 聚焦转转质控系统(核心项目),砍掉用友灰度发布(次要项目)和与基础部分重叠的 binlog/可配置化题目
编码考察 1题+1追问 20min 来源于候选人自己的工单分配场景,考察数据结构+并发+OOP 综合能力,追问串联分布式扩展思路
AI考察 3题 10min 从 Dify 实践出发,延伸到 RAG/Agent/MCP/AI Coding,考察学习深度和技术视野

面试节奏建议

  • 基础部分如果候选人某题回答非常好,可跳过同模块后续题,节省时间留给项目深挖
  • 编码部分 15min 写代码 + 5min 讨论追问
  • AI 部分作为加分项灵活掌握,如果前面超时可适当压缩

候选人背景:<X年经验,当前公司/职位,核心业务方向>

技术栈:<核心技术栈列表,用 / 分隔>

建议时间分配:<各维度时间分配>,共约 X 分钟


一、基础考察(Xmin)

1.1 <子方向名称>

【Q1】 <题目内容,尽量结合候选人的项目场景提问>

出题原因:<为什么针对该候选人出此题,关联简历中的哪个技能声明或项目经历>

考察要点:<面试官应关注的回答要素,列出关键知识点和判断标准>


1.2 <子方向名称>

【Q_】 <题目内容>

出题原因:<出题依据>

考察要点:<评判标准>



二、项目考察(Xmin)

2.1 架构全景

【Q_】 <请候选人描述核心项目的整体架构和数据流转链路>

出题原因:<验证候选人对系统全貌的掌握程度,区分"主导"与"参与">

考察要点:<完整性、准确性、层次感>

2.2 核心方案深挖

【Q_】 <针对简历中某个技术亮点深入追问>

出题原因:<该亮点是候选人的核心卖点,需验证深度>

考察要点:<具体技术细节、设计决策、异常处理>

2.3 工程化能力

【Q_】 <针对容错/监控/性能优化等工程实践提问>

出题原因:<考察候选人的工程化成熟度>

考察要点:<方案完整性、细节把控>


三、编码能力考察(Xmin)

题目:<题目名称>

<题目描述,说明业务背景和需求>

/**
 * <接口说明和约束条件>
 */
<接口定义/代码框架>

出题原因:<为什么选择这个题目,与候选人经历的关联>

考察要点

  • 数据结构选择:<期望的数据结构及理由>
  • 并发安全:<如果要求线程安全,关注点是什么>
  • OOP 设计:<类设计、接口抽象等>
  • 边界条件:<需要处理的边界情况>
  • 代码质量:<命名、可读性、职责划分>

追问(编码完成后口头讨论):

<追问问题,通常是性能优化或分布式扩展方向>

出题原因:<追问的考察目标>

考察要点:<期望回答的关键点>


四、AI 能力考察(Xmin)

4.1 <AI 子方向>

【Q_】 <题目内容>

出题原因:<出题依据>

考察要点:<评判标准>


附:出题思路与时间管理建议

考察维度 题数 时间 设计思路
基础考察 X题 Xmin <核心思路>
项目考察 X题 Xmin <核心思路>
编码考察 X题+X追问 Xmin <核心思路>
AI考察 X题 Xmin <核心思路>

面试节奏建议

  • <提示1:什么情况下可以跳题>
  • <提示2:编码部分的时间分配>
  • <提示3:哪些部分可以灵活压缩>
Installs
3
First Seen
Apr 2, 2026