news 2026/4/18 5:24:44

错题本:关羽一刀斩

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
错题本:关羽一刀斩

题目来源:2025.12.28码蹄杯周赛(入门组)

这里我自我感觉题目没有说清楚,就是关羽如果第一秒没有杀掉华佗的话,能否在第二秒杀掉华佗但最后的题解显然根本没有考虑这种情况(就因为一直卡在这个点我一直没有做出来)

解题思路

(1)关羽第一秒先把华佗直接干掉了,后面再去专门杀颜良

int time=1+(z+x-1)/x;

这里前面的1是干掉华佗浪费了一秒,后面是z/x向上取整的技巧,如果理解不了的话看下面的这种

int time=1+z/x; if(z/x!=0) time++;

(2)关羽直接干颜良,不管华佗了,一直把颜良干没

int time=1+(z-x+(x-y-1))/x-y;

因为这里是关羽直接干颜良,所以关羽最后一刀肯定是直接砍x个颜良把他砍没了,华佗救不了了,所以先是 z 先减去最后的 x 然后前面加1就是加的最后这一刀的一秒,因为华佗一直在,所以前面的每次都是死x-y个颜良,所以做分母为(x-y)的向上取整

(3)最后还要考虑华佗每秒救的数量比关羽杀的多(y>x)(这样就只能先杀华佗),还有关羽每秒杀的大于等于颜良的总数(x>z)(这样一秒关羽就下班了)

题解

#include<stdio.h> typedef long long ll; #define min(a,b) a>b?b:a int main() { ll x,y,z; scanf("%lld %lld %lld",&x,&y,&z); if(x>=z) { printf("%d",1); } else if(y>=x) { int res=1+(z+x-1)/x; printf("%d",res); } else { int res1=1+(z+x-1)/x; int res2=1+(z-x+x-y-1)/(x-y); printf("%d",min(res1,res2)); } return 0; }
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/13 23:39:23

markdown嵌入交互式图表:动态展示PyTorch-CUDA-v2.8性能

PyTorch-CUDA-v2.8 镜像实战&#xff1a;用 Markdown 嵌入交互式图表动态展示性能表现 在深度学习项目中&#xff0c;最让人头疼的往往不是模型设计本身&#xff0c;而是环境配置——“在我机器上能跑”依然是团队协作中的高频槽点。更别提 CUDA 版本、cuDNN 兼容性、PyTorch …

作者头像 李华
网站建设 2026/3/27 4:30:09

markdown语法高亮显示PyTorch代码:提升技术博客阅读体验

Markdown语法高亮显示PyTorch代码&#xff1a;提升技术博客阅读体验 在深度学习领域&#xff0c;写一篇让人“看得懂、信得过、跑得通”的技术文章&#xff0c;远不止把公式和代码堆上去那么简单。我们常常看到这样的场景&#xff1a;读者兴致勃勃地打开一篇关于 PyTorch 模型实…

作者头像 李华
网站建设 2026/4/8 16:41:18

git commit规范提交代码:配合PyTorch-CUDA-v2.8进行版本控制

git commit规范提交代码&#xff1a;配合PyTorch-CUDA-v2.8进行版本控制 在现代深度学习项目中&#xff0c;一个常见的困境是&#xff1a;模型训练明明在本地跑得好好的&#xff0c;换到服务器上却因为环境差异而失败&#xff1b;或者几周前某个实验准确率突然飙升&#xff0c;…

作者头像 李华
网站建设 2026/4/8 11:25:59

YOLOv5训练提速秘籍:PyTorch-CUDA-v2.8镜像深度优化解析

YOLOv5训练提速秘籍&#xff1a;PyTorch-CUDA-v2.8镜像深度优化解析 在深度学习项目中&#xff0c;最让人沮丧的不是模型效果不好&#xff0c;而是还没开始调参&#xff0c;就已经花了一整天去解决环境问题——“CUDA not available”、“版本不兼容”、“nvidia-docker启动失败…

作者头像 李华
网站建设 2026/4/7 12:14:01

开源项目推荐:基于PyTorch-CUDA-v2.8的大模型微调框架

开源项目推荐&#xff1a;基于PyTorch-CUDA-v2.8的大模型微调框架 在当前大模型&#xff08;LLM&#xff09;研发如火如荼的背景下&#xff0c;越来越多团队开始从“是否能训”转向“如何高效地训”。然而&#xff0c;一个常被低估却极具破坏性的问题始终存在——环境配置的“地…

作者头像 李华