智能助手网
标签聚合 调试

/tag/调试

linux.do · 2026-04-18 00:31:21+08:00 · tech

前提条件 :已知锁屏密码 现状: 屏幕全黑 触屏有反馈 开机有开机音乐 屏幕无显示,但可以触摸,开机进系统。 最终目的是打开手机的USB调试模式,从而使用工具访问手机,达成类“云手机”的效果。 tips:如果手机无法触摸,可以尝试使用TypeC-USBA的方式OTG连接鼠标模拟点击,具体实践会更复杂。当然如果屏幕可以显示的情况下,OTG连接鼠标已通关。 tips:很多手机不支持OTG。OTG还有扩展包括支持鼠标键盘;支持扩展坞连接显示屏(仅常见于三星、华为高端型号) tips:有动手能力可以网购屏幕总成解决问题。 尝试记录 测试截图 同时按下电量和音量下键,手机震动。三指下滑,手机震动。说明手机可以正常截图。 测试解锁屏幕 手从屏幕中线最下方开始逐步向上点击,第一个震动反馈,一般就是0键,根据按键相对位置,可以逐步标记789的位置,记号笔记录。再根据789轴线从上向下点击,确认123位置,456位置也可以确认。 接下来根据手机声音和震动,可以确认手机是否解锁。通常解锁失败,手机会较大震动。解锁成功则轻微震动或者声音反馈。 USB访问文件 通常解锁后,电脑USB连接上,会有会话框进行选择”仅充电、访问相册、访问文件“,根据各品牌和系统版本有所不同。搜索对应手机系统版本的视频,可以大致推测位置。根据大致位置,从左开始点击,无反应,推测为仅充电;从右开始点击,电脑一段时间后发现存储器,检查,激活相册。 截图 此时,启动手机截图,刷新相册文件夹,发现新截图。 根据截图信息和黑屏触屏点击,可以相对判断点击后的效果,依次进入设置-开启USB调试。 tips:如存在屏幕部分区域无法点击,参考OTG连接鼠标 tips:开发者模式存在一项绘制当前触控位置和小圆点的配置,可以观察点击的位置。(当然,你都进入这个界面了,USB调试就差点两下了,还需要这个吗? USB调试验证 USB插入手机,可能需要手机点击一下允许连接USB调试,这将会保存一个验证密钥文件到PC端。到此正式启动USB调试。 ==== 后续,准备拆开后盖卸电池,改直连。 因为没有屏幕,观测电量很麻烦,长期充电有火灾风险。 室友相机放窗边太阳直射下充电,引起火灾,虽及时扑灭,但锂电池燃烧导致房屋大面具熏黑,照价赔偿4位数,引以为鉴。 不知道当前屏幕到底还是否在耗电?如果还耗电是不是可以拆机把屏幕排线拆下来? ==== 幻想环节1 黑屏刷机–需要解锁BL(假想环节,非专业人士切勿模仿) 使用镜像修改工具,修改镜相包配置文件,重新打包,关闭USB调试验证,开启充电自启,大致需要6-8项配置。失败则变砖,仅能购买屏幕总成解决。 还可以跳过开机引导,可惜MIUI每个版本的跳过策略都不同,无法通用。 幻想环节2 远程屏幕模拟 经过搜索,主板连接屏幕应该是依靠MIPI-DSI接口协议,一般没有验证芯片,也就是说,只要自己实现一个开发板连接排线,模拟自己是一个屏幕,即可远程发送画面和触控交互。 这玩意似乎没办法用低成本的芯片进行开发,只看到了FPGA方案,500+成本起步。其他方案个人用户很难得到完整的开发文档。 并且根据不同屏幕之间存在通用性问题,推断手机排线定义可能是不通用的,没有手册烧毁概率极大。 没有市场前景,大规模厂商是直接购买成品主板的,自带所有权限的ROM,无需该方案。 5 个帖子 - 5 位参与者 阅读完整话题

linux.do · 2026-04-17 18:20:52+08:00 · tech

看Codex 客户端推出了桌面控制自动调试前端的问题想尝尝鲜,下载下来后似乎只能读取win环境下的Codex配置文件夹。 平常的工作流和各类mcp/skills都在wsl2的Codex cli里,是否有一种办法让Codex客户端使用wsl2内的配置? 需求就是Codex客户端作为某种GUI,调用的还是在wsl内。 PS:我看到Codex客户端设置里有使用wsl子系统环境工作的选项,但没有复用配置文件的。 2 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-17 17:47:48+08:00 · tech

一。 准备编译环境 我的开发环境是Ubuntu24.04 a. 下载编译器 Arm Developer Downloads | GNU Arm Embedded Toolchain Downloads – Arm Developer Download the GNU Embedded Toolchain for ARM, an open-source suite of tools for C, C++, and Assembly programming for 32-bit ARM Cortex-A, ARM Cortex-M and Cortex-R families 如图: b. 添加环境变量 vi /etc/profile 在文件最后添加 export PATH=$PATH:/usr/lib/gcc/gcc-arm-none-eabi-4_9-2014q4/bin 使能环境变量 source /etc/profile 注意:此命令只在当前终端有效,若需要在其它终端中使用,需要重启计算机。 c. 获取FreeRTOS源码并编译 git clone https://github.com/FreeRTOS/FreeRTOS.git --recurse-submodules cd FreeRTOS/FreeRTOS/Demo/CORTEX_MPS2_QEMU_IAR_GCC/build/gcc make 生成的镜像文件 output/RTOSDemo.out 二。启动测试 用下面命令启动虚拟机 qemu-system-arm -machine mps2-an385 -cpu cortex-m3 -kernel output/RTOSDemo.out -monitor none -nographic -serial stdio 三。 代码调试 通过vscode打开这个demo的代码 code /FreeRTOS/FreeRTOS/Demo/CORTEX_MPS2_QEMU_IAR_GCC 在vscode中创建launch.json 和 tasks.json 内容如下图: launch.json的内容如下: { "version": "0.2.0", "configurations": [ { "name": "Launch QEMU RTOSDemo", "type": "cppdbg", "request": "launch", "program": "${workspaceFolder}/build/gcc/output/RTOSDemo.out", "cwd": "${workspaceFolder}", "miDebuggerPath": "arm-none-eabi-gdb", "miDebuggerServerAddress": "localhost:1234", "stopAtEntry": false, "preLaunchTask": "Run QEMU" }, ] } tasks.json的内容 如下: { "version": "2.0.0", "tasks": [ { "label": "Build QEMU", "type": "shell", "command": "make --directory=${workspaceFolder}/build/gcc", "problemMatcher": { "base": "$gcc", "fileLocation": ["relative", "${workspaceFolder}/build/gcc"] }, "group": { "kind": "build", "isDefault": true } }, { "label": "Run QEMU", "type": "shell", "command": "echo 'QEMU RTOSdemo started'; qemu-system-arm -machine mps2-an385 -cpu cortex-m3 -kernel ${workspaceFolder}/build/gcc/output/RTOSDemo.out -monitor none -nographic -serial stdio -s -S", "dependsOn": ["Build QEMU"], "isBackground": true, "problemMatcher": [ { "pattern": [ { "regexp": ".", "file": 1, "location": 2, "message": 3 } ], "background": { "activeOnStart": true, "beginsPattern": ".", "endsPattern": "QEMU RTOSdemo started", } } ] } ] } 按F5启动调试 如下图 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-17 13:49:55+08:00 · tech

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 地址在: GitHub - S842155114/ZenRequest: 本地优先、离线优先、隐私优先的API工作台,面向需要高频调试HTTP与MCP接口的开发者 · GitHub ZenRequest 极速启动、本地优先的 API 工作台,专为重视隐私和效率的开发者打造。 Postman、Insomnia 等现代 API 工具越来越臃肿——强制登录、云同步、动辄数 GB 内存占用,还有你从未同意过的遥测数据收集。 ZenRequest 是另一种选择:一个桌面优先的 API 工作台,毫秒级启动,完全离线运行,数据始终存在你自己的机器上。 极速启动 — 基于 Rust + Tauri,而非 Electron 极轻量 — 空闲时内存占用低于 50 MB 100% 离线 & 私密 — 无账号、无遥测、无云同步 本地 SQLite 存储 — 工作区、请求、历史记录和会话均存储在本地 当前已经覆盖这些核心能力: HTTP 请求调试 环境变量与模板解析 集合、工作区、历史与回放 cURL 导入与工作区导入 / 导出 请求级 Mock 与基础断言 MCP 工作台(tools / resources / prompts / roots / stdio) 欢迎各位佬使用,如有问题希望各位佬可以提交pr或issue,谢谢各位佬。 3 个帖子 - 2 位参与者 阅读完整话题

www.ithome.com · 2026-04-16 15:15:05+08:00 · tech

IT之家 4 月 16 日消息,微软今天更新发布 Visual Studio Code 1.116 版本,内置 GitHub Copilot 为默认功能, 用户无需安装扩展,首次启动即可直接使用 AI 辅助编程功能。 针对 AI 调试体验,新版本引入了 Agent Debug Logs 功能。该面板以时间轴形式,记录聊天会话中的所有智能体交互事件,开发者可查看当前会话及历史会话的完整日志。这一功能让用户能够清晰追踪提示词发送后的具体执行流程,便于调试自定义聊天行为,快速定位问题。 在 Copilot CLI 方面,1.116 版本增加支持推理模型思考强度。用户可通过语言模型选择器挑选推理模型,并调整思考强度等级。不同模型提供不同等级选项,非推理模型则不显示此功能。 本次更新还优化终端体验,send_to_terminal 和 get_terminal_output 工具现已支持前台终端操作,可直接读取可见终端面板中的输出,并向运行中的 REPL 或交互脚本发送输入。 参考 Visual Studio Code 1.116 更新日志 Visual Studio Code 下载地址

linux.do · 2026-04-15 15:00:41+08:00 · tech

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出 开发动机: 不知道论坛里做嵌入式软件的佬友多不多,我干这行工作差不多已经三年了。 从AI刚开始流行时就一直在学习使用,这一年内也是看到AI工具的快速发展。 上一年一直在做STM32相关的工作,由于基础不行所以做着还是挺吃力的(前一两年主要做些应用层的事,再加上一些杂七杂八的工作),但是在AI的加持下还是磕磕碰碰的能完成任务。 之前对于AI在嵌入式开发中的使用主要是分析代码、生成代码,但是AI生成的代码通常不能一次性成功,需要下载到芯片多次调试反馈AI再调后才能使用。 有一段时间好好学习了一下ClaudeCode的各种概念,但好像有用的也就全局提示词,MCP、Skill 这些基本没有太合适嵌入式开发的,对Skill更是疑惑不解,感觉本质上就是一堆提示词 。 但是随着使用ClaudeCode、Codex的时间越长,慢慢发现,AI非常善于使用命令行,最近各大软件也纷纷推出自己的CLI工具。此时突然明白了Skill的一个重要的用法,就是将一些命令行工具的使用沉淀为Skill,让AI在合适的地方自己去调用这些工具,完成原本MCP的功能。 之前玩过Linux板子,倒腾过GDB+VSCode远程调试。那时还不明白,为啥GDB调试是命令行形式的而不用Keil这样的GUI?还很疑惑,真有人通过命令行去调试开发吗?感觉完全不可思议。现在才恍然大悟,这样的设计简直天才。 于是我就去调研,看看SMT32开发工具中,有没有这样的实现。结果是这些工具都有对应的命令行工具及实现。 所以,现在我们能将AI在嵌入式领域的开发中,编译、调试验证的最后一小步打通,形成闭环开发。(当然,还有很多涉及外部工具的工作无法完成,但我觉得这已经是一个很大很大的进步了) 项目介绍: 项目链接: github.com GitHub - zhinkgit/embeddedskills: An open-source collection of embedded development... An open-source collection of embedded development and debugging skills for Claude Code, Copilot, TRAE, 和 other AI coding assistants that support the Skill protocol. Once installed, the AI assistant can directly operate compilers, debuggers, 和 communication buses, automating the full workflow from code generation to hardware verification. 补充说明: 由于Python的生态非常好,有非常多的工具库可以调用,所以使用Python做为脚本语言。 现在单片机的开发在我了解主要分为几类,工程类别:1、keil 2、CMake。下载调试类别:1、jlink 2、openocd。再加上我经常用到的一些通信调试:串口、CAN、以太网。这些均已沉淀为Skill。 由于目前的工作中没有Linux相关的任务,所以没有开发Linux相关的Skill,但是原理都是一样的,可以自行开发或者提 Issue 和 PR。 同上,可能有些芯片的工程类别覆盖不全,包括ESP、IAR啥的,但原理都是一样的。 使用Codex验证了Skill的基本功能,还未大规模使用,欢迎大家提 Issue 和 PR。 感谢社区佬友的AI经验分享,欢迎做嵌入式开发的佬友交流心得,如果好用请给一个免费的小 哦。 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-14 11:07:36+08:00 · tech

推荐一个浏览器自动化工具-Playwright MCP Bridge。 Playwright MCP大家都很熟悉了,它其实有个功能可以直连当前登录的Chrome浏览器,不用新开一个没有任何登录信息的Chrome,这样很方便直接使用。 使用方法: 1:打开官方的开源项目: GitHub - microsoft/playwright-mcp: Playwright MCP server · GitHub 2:在release模块可以下载chrome扩展并安装,也可以在chrome扩展商店下载(版本略低) 3:查看 https://github.com/microsoft/playwright-mcp/blob/main/packages/extension/README.md,在Claude Code/Codex中安装playwright-extension,并且把安装的扩展的token配置上。 4:在Claude Code、Codex直连Chrome即可 3 个帖子 - 3 位参与者 阅读完整话题