Z space
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
变分自编码器VAE(Variational Auto-Encoder)

变分自编码器VAE(Variational Auto-Encoder)

变分自编码器VAE(Variational Auto-Encoder) 变分自编码器的目标是构建一个根据隐藏变量生成目标数据的模型 假设有一组数据{\(x_1,x_2,…x_n\)},整体用\(X\)表示。理想情况下可以从数据中直接得到\(X\)的分布\(P(X)\),根据\(P(X)\)进行采样可以得到所有可能的\(X\)。通常情况下很难实现上述所说的,而是将\(P(X)\)​改写为: \
2024-01-31
NLP
#因果推理
整数转罗马数字

整数转罗马数字

整数转罗马数字 1、题目 image-20231228155342506 2、题解 思路:利用贪心哈希表来实现 123456789101112class Solution: def intToRoman(self, num: int) -> str: hashmap = {1000:'M', 900:'CM&#
2023-12-28
offer
#实习
盛水最多容器

盛水最多容器

盛最多水的容器 1、题目 image-20231224163543608 2、题解 双指针 思路:根据题目可以得到水槽面积公式为:\(S(i,j)=min(h[i],h[j])\times(j-i)\),其中\(h[i]\)表示水槽高度。在所有状态下,无论如何移动槽板,都会使水槽宽度\(-1\): 若向内移动短板 ,水槽的短板 \(min(h[i],h[j])\)可能变
2023-12-24
offer
#实习
字符串转换整数

字符串转换整数

字符串转换整数 1、题目 image-20231222145709687 2、题解 方法1:使用已有函数去除字符串中的空格,然后再进行拼接 根据题意,有以下四种字符需要考虑: 首部空格: 先用strip()函数进行处理 符号位: 三种情况,即 ''+'' , ''−'' , ''无符号" ;新建一个变量保存符号位flag,返回前判断正负即可。 非数字字符: 遇到首个非数
2023-12-22
offer
#实习
Enhancing Document-level Event Argument Extraction with Contextual Clues and Role Relevance

Enhancing Document-level Event Argument Extraction with Contextual Clues and Role Relevance

Enhancing Document-level Event Argument Extraction with Contextual Clues and Role Relevance 论文链接:2023.findings-acl.817.pdf (aclanthology.org) 源码链接:LWL-cpu/SCPRG-master: The code implement of "En
2023-12-18
NLP
#事件抽取
整数反转

整数反转

整数反转 1、题目 image-20231218101425194 2、题解 思路1:直接将int类型转换成str类型进行反转 12345678910111213141516class Solution: def reverse(self, x: int) -> int: if -10<x<10: return x
2023-12-18
offer
#实习
N字形变换

N字形变换

N字形变换 1、题目 image-20231213102851790 2、题解 给定了输入字符串和要求行数,我们可以设定一个\(flag=1\),当到达转折点时对\(flag\)进行取反,实现\(N\)形存储。 12345678910class Solution: def convert(self, s: str, numRows: int) -> str:
2023-12-13
offer
#实习
最长回文子串

最长回文子串

最长回文子串 一、题目 image-20231207224707335 二、解法 1、动态规划 根据回文串的定义,回文串的子串也必然是回文串: \[ P(i,j)=\begin{cases}\mathrm{truc},如果子串是回文串\\\mathrm{false},其他情况&\end{cases} \] 可以得到回文串的动态规划边界条件: \[ \begin{
2023-12-07
offer
#实习
Attention机制

Attention机制

Attention机制 一、概述 Attention机制:对于某个时刻的输出y,他在输入x上各个部分上的注意力(也可以称之为权重),即输入x的各部分对某时刻输出y贡献的权重。目的就是让模型更关注需要关注的信息。 二、经典Attention机制 以经典\(Seq2Seq\)翻译模型为例,\(Seq2Seq\)结构包含两个部分:Encoder和Decoder,分别用于对语句进行编码和解码。
2023-11-21
NLP
#八股
Python 日志logging

Python 日志logging

Python 日志logging image-20231120152320128 日志功能需要根据追踪事件的级别和严重性而定: image-20231120152440314 Python的logging库采用模块化方法,并且提供了一些组件: 记录器(Logger):提供应用程序代码直接使用的接口。 处理器(Handler):将日志记录(由记录器创建)发送到
2023-11-20
python
#代码技能
1…456789

搜索

Hexo Fluid