news 2026/4/18 10:20:13

leetcode 81four. Binary Tree Pruning 二叉树剪枝

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
leetcode 81four. Binary Tree Pruning 二叉树剪枝

Problem: 814. Binary Tree Pruning 二叉树剪枝

解题过程

递归,返回子树是否包含1,若左右子树都不包含1而且值不等于1,那么就可以剪枝了,需要传递parent节点的,以及判断左右,特殊情况整个树都没有1, parent=nullptr,这时候需要返回false

Code

/** * Definition for a binary tree node. * struct TreeNode { * int val; * TreeNode *left; * TreeNode *right; * TreeNode() : val(0), left(nullptr), right(nullptr) {} * TreeNode(int x) : val(x), left(nullptr), right(nullptr) {} * TreeNode(int x, TreeNode *left, TreeNode *right) : val(x), left(left), right(right) {} * }; */ class Solution { public: bool containA(TreeNode* root, TreeNode* parent, int leftRight) { if(root == nullptr) return false; bool l = containA(root->left, root, 0); bool r = containA(root->right, root, 1); if(l==false && r==false && root->val != 1) { if(parent==nullptr) { return false; } if(leftRight == 0) parent->left = nullptr; else parent->right = nullptr; return false; } return true; } TreeNode* pruneTree(TreeNode* root) { if(root==nullptr) return nullptr; bool ret = containA(root, nullptr, -1); if(ret == false) return nullptr; return root; } };
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 8:47:17

大数据领域分布式计算的分布式性能调优工具

大数据领域分布式计算的分布式性能调优工具:从流水线堵车到全局最优的魔法工具箱关键词:分布式计算、性能调优工具、大数据、性能瓶颈、资源利用率摘要:在大数据时代,分布式计算就像一个超大型流水线工厂,成百上千个“…

作者头像 李华
网站建设 2026/4/18 9:45:22

【网络安全】最全Nmap端口扫描工具Windows安装和命令大全!

Nmap的介绍 nmap(Network Mapper)是一款开源免费的针对大型网络的端口扫描工具,nmap可以检测目标主机是否在线、主机端口开放情况、检测主机运行的服务类型及版本信息、检测操作系统与设备类型等信息。本文主要介绍nmap工具安装和基本使用方…

作者头像 李华
网站建设 2026/4/18 9:41:29

9个AI论文工具推荐,研究生高效写作必备!

9个AI论文工具推荐,研究生高效写作必备! AI 工具如何助力研究生高效写作 在当前学术研究日益繁重的背景下,研究生们面临着论文写作、资料整理、查重降重等多重挑战。而随着 AI 技术的不断进步,越来越多的 AI 写作工具开始被广泛应…

作者头像 李华
网站建设 2026/4/18 6:59:12

PyTorch-CUDA-v2.7镜像中连接Redis缓存热点数据提升响应速度

PyTorch-CUDA-v2.7镜像中连接Redis缓存热点数据提升响应速度 在构建高并发AI推理服务时,一个常见的痛点是:即便模型已经部署在GPU上,面对成千上万的重复请求,系统依然可能因频繁计算而出现延迟飙升、资源耗尽的问题。尤其在短视频…

作者头像 李华
网站建设 2026/4/18 7:03:21

PyTorch-CUDA-v2.7镜像中使用FlashAttention加速注意力计算

PyTorch-CUDA-v2.7镜像中使用FlashAttention加速注意力计算 在大模型训练日益普及的今天,一个常见的瓶颈浮出水面:哪怕是最新的A100 GPU,在处理长度超过2048的文本序列时,也可能因为显存溢出(OOM)而无法完成…

作者头像 李华