数学がわからない

日々の勉強をアウトプットする。

2019-05-01から1ヶ月間の記事一覧

論文 "Fast bilateral-space stereo for synthetic defocus" ④

論文"Fast bilateral-space stereo for synthetic defocus. "を読む。 背景 低品質のセグメンテーション結果から高品質のセグメンテーション結果を生成するバイラテラルソルバーについて調査中、実際にプログラミングするため引用文献から本論文にたどり着い…

論文を読む"Distilling the knowledge in a neural network."⑫

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑪

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑩

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

3次元空間における平面について

平面の式 import math import numpy as np # 3次元空間における平面と直線の交点 # 3次元空間における平面を、Ax+By+Cz+D=0とする。 # 3次元空間における直線を、x/a=y/b=z/cとする。 # 平面の中心 X = 100*math.sqrt(3) Y = 100 Z = 100 # 原点からの距離 L…

極座標で与えた4本の直線から四角形を作る

pythonで書く。 def Line2Vertex(r,t): # 入力はたとえば次のような4本の直線 # r = [1,1,1,1]; # 原点からの距離 # t = [10,100,190,280]; # 角度θ r = np.array(r) t = np.array(t) # COS c = (np.cos(np.deg2rad(t))) c[np.abs(c)<0.0001]=0 # SIN s = (n…

論文を読む"Distilling the knowledge in a neural network."⑨

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑧

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑦

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18] …

論文を読む"Distilling the knowledge in a neural network."⑥

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."⑤

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."④

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."③

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."②

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."①

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。そのアプローチはモデル蒸留のために広く使用されている技術として以下二つの論文に基づいているという。 [3] C. B…

論文を読む「Online Model Distillation for Efficient Video Inference」⑲

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読む。 蒸留とは 蒸留とは、「何でも理解できるが重いネットワークよりも、実運用を考慮して特定の対象に特化させることで…

論文を読む「Online Model Distillation for Efficient Video Inference」⑱

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読む。 蒸留とは 蒸留とは、「何でも理解できるが重いネットワークよりも、実運用を考慮して特定の対象に特化させることで…

論文 "Fast bilateral-space stereo for synthetic defocus" ④

論文"Fast bilateral-space stereo for synthetic defocus. "を読む。 背景 前回まで 低品質のセグメンテーション結果から高品質のセグメンテーション結果を生成するバイラテラルソルバーについて調査中、実際にプログラミングするため引用文献から本論文に…

論文を読む「Online Model Distillation for Efficient Video Inference」⑰

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読む。 蒸留とは 蒸留とは、「何でも理解できるが重いネットワークよりも、実運用を考慮して特定の対象に特化させることで…

論文を読む「Online Model Distillation for Efficient Video Inference」⑯

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読む。 蒸留とは 蒸留とは、「何でも理解できるが重いネットワークよりも、実運用を考慮して特定の対象に特化させることで…

論文を読む「Online Model Distillation for Efficient Video Inference」⑮

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読む。 蒸留とは 蒸留とは、「何でも理解できるが重いネットワークよりも、実運用を考慮して特定の対象に特化させることで…