2019年12月30日月曜日

Termux で日本語入力

Termux だと IME によっては日本語入力がうまくいかない。
例えば、Google 日本語入力だと日本語が入力できないことがある。

このときには、
[ESC 両矢印 CTRL ALT ... ]
となっている部分を左側にスライドさせると、入力スペースが出てきて、ここはIMEで入力したものがそのまま Termux に貼り付けられるので、Google 日本語入力でも日本語入力ができる。
(ただし、入力できるのは Emacs や nano などに限られるようで、bash ではこの手順でも入力できなかった。)

ちなみに、Google 日本語入力は英字入力の際に必ず入力候補が出てきてしまい、直接入力ができないので、Emacs の C-x C-s などの入力が非常に困難。日本語だけを Google 日本語入力にして、英字は別のIMEに任せると比較的スムーズ。

2019年12月14日土曜日

Julia で ls() の代わり

Julia の REPL だと ls が使えないのでちょっと面倒だけど(もちろん shell モードなら使える)、代わりとして
julia > readdir()
とすれば、ディレクトリにあるファイル名が分かる。

正規表現も使えるので、jl で終わるファイルを探すなら
julia > [name for name in readdir() if occursin(r"jl$", name)]
とすると分かる。

ちなみに、shell モードだと何故かアスタリスクを受け付けてくれない。

shell> ls *
ls: '*' にアクセスできません: そのようなファイルやディレクトリはありません


2019年12月7日土曜日

Julia で print を色付きにする

Julia では
print("Hello")
とすると、普通に Hello と表示してくれるが、
printstyled("Hello", color = :blue)
とすると、青字で Hello と表示してくれる。

こういったのは、例えば、「計算結果がおかしいかもしれないから気をつけて」などというところに使うと便利。

何色が使えるかというと、
?printstyled
でヘルプを表示すると良くわかる。

2019年11月30日土曜日

この軽量ノートPCが軽量すぎる

いろいろと調べてみたら
https://www.amazon.co.jp/dp/B07W6ZKJWJ/ref=psdc_2151981051_t2_B07T1G26NX
という「超軽量薄型PC」と打ち出してあるだけあって、ビックリするぐらい軽量で、「商品重量4.54g」と書いてある。たぶんCPU1個分よりも軽い。

こういうのは単なる入力間違いだと思うけど、こういう単なる入力間違いを自動的に検出できる機能があれば面白いと思う。例えば、病院の薬剤の量などを入力間違いしたときに自動的に注意してくれるシステムなどにも使えるのではないかと思う。




2019年11月12日火曜日

Julia でパッケージを作る

Julia で公式パッケージに登録するのは比較的簡単で、やり方としては

Julia でのパッケージの作り方
https://qiita.com/cometscome_phys/items/989389db3540ebd9e026
がとても参考になる。

ただ、若干情報が古いようで、「リリースの登録」にある
https://github.com/attobot/attobot
については、Registrator.jl によって登録するようになっている。
https://github.com/JuliaRegistries/Registrator.jl
具体的には、
https://pkg.julialang.org/registrator/
で「Log in to GitHub」を使ってログインして、
URL of package to register:
Git reference (branch/tag/commit):
Release notes (optional):
を入力して、「Submit」を押せばよい。

こうすると
https://github.com/JuliaRegistries/General/pulls
にNew packageとして登録されるので、これが承認されるのをじっと待てばよいことになる。
承認待ちのリストを見ると、だいたい一週間以内には承認されるようだ。


他に参考になったのは

覇権を取る、Juliaパッケージの作り方 Part2
https://logmi.jp/tech/articles/321564
のあたり。

2019年11月9日土曜日

beamerのコンパイル速度を上げる

beamerのコンパイルが遅いので調べてみたら、ある特定のページだけをコンパイルする方法があった。

https://tex.stackexchange.com/questions/27351/speed-up-beamer-compile-time
のところの最初の Answer に載っているが
\includeonlyframes
を使えば可能である。
「いま編集しているページをコンパイルして確認したい」ということは多いので、これによって解消できる。


一方で、1ページだけコンパイルすると preamble の部分 (\begin{doument}よりも前の部分)がコンパイルに時間がかかっていることが分かる。
preamble だけを別にコンパイルする方法が
https://ubutun.blogspot.com/2015/06/precompiled-preambleplatex.html
に載っているので、これを\includeonlyframesと合わせて試してみたら、相当コンパイルが速くなった。


ただ、preamble の部分を別にコンパイルしたものをチェックしてみたら 8MB もあった。つまり、beamer をコンパイルする、というのは1ページだけであっても8MBぐらいバイナリーファイルを生成するようなコンパイルをしているわけであって、beamer のコンパイルが遅いのも納得である。
うーん、latex も C言語みたいにオブジェクトファイルとか生成出来たら、べんりなのかもしれない。

2019年11月7日木曜日

Android の Termux のplatexで日本語PDFを作る

Android のタブレットで PDF を生成できるか、というテストを行ってみたら、上手くできたのでステップを書いておく。

1. Google Play で Termux をインストールする
2. Termux の中で termux-setup-storage を実行してファイルシステムへのアクセス権限を付与する
3. pkg update
4. pkg upgrade
5. (オプション作業) sshd をインストールするとパソコンからログインしてキーボードで作業できるので便利である。
pkg install openssh
でインストールした後に ~/.ssh/ に普段通り鍵を置いておいて、Termux で
sshd
とする(ポート番号は 8022になる)。終了するには
pkill sshd
である。
6. pkg install texlive texlive-bin texlive-fontutils texlive-langjapanese texlive-tlmgr ghostscript wget
必要に応じて他のパッケージもインストールする
7. これで pdflatex は使えるようになっているので、適当に英語だけのtest01.texをviなり他のエディタで作成して
pdflatex test01.tex
で test01.pdf ができることを確認する。test01.pdf は Termux から
termux-open test01.pdf
とすれば、Android で普段使っている PDF リーダーが起動する。
8. pdflatex だと日本語が通らないので、日本語を通すために IPAex フォントをインストールする
mkdir ~/.fonts
cd ~/.fonts
wget https://ipafont.ipa.go.jp/IPAexfont/IPAexfont00401.zip
unzip IPAexfont00401.zip
mv IPAexfont00401/ipaexg.ttf ~/.fonts
mv IPAexfont00401/ipaexm.ttf ~/.fonts
rm -rf IPAexfont00401*
9. mktexlsr
10. fc-cache -v
11. ~/.fonts/cid-x.map のファイルを以下の内容にする
rml  H ipam.ttf
gbm  H ipag.ttf
rmlv V ipam.ttf
gbmv V ipag.ttf
12. 日本語を含む test02.tex を作成して
platex test02.tex
dvipdfmx -f ~/.fonts/cid-x.map test02.dvi
とすると、日本語を含むPDFとしてtest02.pdfができるので、これを
termux-open test02.pdf 
で開いて内容を確認する。

参考にしたサイト
1. TermuxでSSH Serverを起動する
https://qiita.com/dev100kg/items/11fdaac265c35e777664
2. IPAexフォント Ver.004.01
https://ipafont.ipa.go.jp/node193
3. LaTeXdvipdfmxdvi を pdf に変換
http://www.yamamo10.jp/yamamoto/comp/latex/dvipdfmx/dvipdfmx.html


2019年11月6日水曜日

Vimの読み方

もうひとつ最近気になっているのが Vim の読み方で正しくは「ヴィム」という発音に近い、ってことです。Vim の解説を読んでみると

http://vimdoc.sourceforge.net/htmldoc/intro.html#pronounce

にあるように「Jim っていう名前はジェー・アイ・エムじゃなくてジムって一つで読むだろう、だからVim はヴィー・アイ・エムじゃなくてヴィムなんだ」というようなことが書いてあるのです。

個人的には、「だったら、USAも名前の一種だから「ウサ」って読むってことなのか?」とか思ったりで(そもそも Vim も Vi IMproved から来ているので一単語ではない)、やはりこのあたりは英語のネイティブに聞いてみないと分からないのかも、と思ったりする日々なのです。


「査読」という古い文化について

最近、Githubをそれなりに使い始めていろんな機能があるなぁ、と思い始めているわけですが、その中で「査読」っていうプロセス自体はGithubの時代には古いやり方なのかもしれない、と思ったりしています。(個人的な感想だけど。)

Githubの機能にはたくさんの機能がありますが、そのなかでも Issues と Pull Request が良い機能だと思います。
従来の査読の問題点だと思うのは

1.基本的に密室で行われているので、査読者と編集者の意向に左右されやすい(査読者などには当たり外れがある)
2.一度 publish されてしまうと、そのあと間違いがあっても余程の間違いでないと修正されない
3.論文を読んだ人が新しいアイデアとかできても、それを掘り下げるような議論をする場所がメールだったり国際会議だったりに限定されてしまう
4.arXivにあがっている原稿と比べると、査読を通ったあとの最終稿のほうが質は当然上回るけど、ほとんどの場合はarXivの原稿の時点で研究の核となるアイデアは理解できる。つまり、arXivの原稿を読んでいるだけでも、かなりの研究ができる時代になり、査読の相対的重要性が下がった

などなどだと思います。
このあたりが Github で論文を公開して、そのあとを Issues なりでフォローしていくようになれば、かなり改善できる考えられます。


まぁ、実際にやろうとしたら脈々と続いてきた古い文化をなくすので相当大変だと思います。その一方で例えば「Githubの運営者が勝手に編集できてしまうのでは?」とかいう疑問などについては「Gitlabとかを複数たててミラーリングする」なり「論文掲載にブロックチェーンの情報を追加して改ざんすると分かるようにする」なり、いろんな疑問も現在のITを使うと結構クリアできるのでは?と楽観的に考えたりもしています。

もちろん、査読にもいい面が当然あるわけで、世の中で使われているわけです。
ただ、Github など最近のものに触れていると、そういったものも変わっていくのが世の中にとっては必然なのかもしれないなぁ、と思ったりする、というところです。

2019年10月25日金曜日

TeXのソースは、コマメに改行すべきである

TeX のソースで、一段落ごとに改行していたりすることがあるわけだが、やはりもっと少ない文字数で改行をすべきであると個人的には思ったりしている。

もちろん、最近の TeX のエディタは右端で折り返してくれるので、TeX のソースを読んだり書いたりするときには改行はたいして重要ではない。
ただ、コマメに改行すると以下のようなメリットがある。

1. TeXのコンパイラは「何行目にエラーがあるか」を教えてくれるので、各行の文字数が短いほどどこにエラーがあるのかを人間が確認しやすい。TeXの統合環境ならエラーのある行の番号にジャンプする機能もあるので、数行に分かれているほど作業しやすい。
2. git も行ごとに認識しているので、1行が300文字もあると1文字修正しただけで300文字の修正として登録しないとならない。

もちろんひたすら改行すればいいってものではないけど、できれば80文字ぐらいでTeXの場合は改行してほしい。


2019年10月18日金曜日

LaTeXとヴィルトの法則

ここ最近になって「LaTeX のコンパイルがどんどんと遅くなっている」と思っていて「個人の感想です」かと思っていたら、他の人も似たようなことを思っていたそうで「少なくとも2人の感想です」ということが分かった。

世の中には「ヴィルトの法則」というものがあるそうで、「ハードウェアがスピード向上はソフトウェアのスピード低下に打ち勝てない」ということで、「あぁ、まさに LaTeX のことだなぁ」と思ったりする。
2000年ごろの論文を見ると LaTeX が既に使われていて(いつから使われているのかはよく分からないけど)、20年ぐらい経って数式とか論文を書くとかいうのには、どんどんと遅くなりつつあるかと思う。

個人的に「ヴィルトの法則」だと思うもう一つはエディタの Atom で、使っている人が減っているのは、やっぱり動作の遅さが原因なんだろうなぁ、と思う。前に使っていた時は、起動するためのアイコンクリックから文字を書き始めるまでに20秒ぐらいかかって、「これはしんどいなぁ」と思ったこともある。

逆にWindowsは Windows 7 よりも Windows 10 のほうが動きが速いように感じるので「ヴィルトの法則」からは外れているのかもしれない。ただ、半年ごとのアップデートでは少しずつ遅くなっているようにも感じる。


2019年10月10日木曜日

Juliaの型宣言は、かなり厳密

数値実験をやっていて気がついたけど、Juliaの型宣言はかなり厳密に行われているようだ。

たとえば、xを変数ベクトルとして定義したときに
x[1], 1.0*x[1], x[1]+0.0
などは数学では等価として計算してほしいけど、Juliaでは異なるものとして処理されるようで、最適化ソルバーに入れて結果を見ると違う結果が出てくることがある。

JuMPなど複数のパッケージを使っているので、どのパッケージで異なる処理が入るのかを特定できていないけど、このあたりは気をつけたいところだ。

(理由として推測できるのは、C言語の int 型だと 3/2 が 1 になって、double 型だと 3.0/2.0 が 1.5 になる、みたいなこと、かと思っている。)

2019年10月2日水曜日

論文読み:On Polyhedral and Second-Order-Cone Decompositions of Semidefinite Optimization Problems

Optimization Online に出てきていた
"On Polyhedral and Second-Order-Cone Decompositions of Semidefinite Optimization Problems"
http://www.optimization-online.org/DB_HTML/2019/09/7392.html
をザックリと読んでみた。

基本的には、半正定値条件をLPだったりSOCPだったりで近似する、という話だった。
近似して解いた後に、半正定値条件を満たしていなければ、切除平面を入れて解きなおしている。

数値実験は Sparse PCA と nuclear norm 最小化を扱っていて、やはり、問題が大きなものには近似でやったほうが大きなサイズが解けるようだ。
SOCPで半正定値条件を近似すると、切除平面法の収束は普通には結構な反復回数が必要なので、Sparse PCA や nuclear norm 最小化は問題の構造が比較的簡単なのかもしれない。


2019年8月26日月曜日

台湾でタピオカミルクティーも飲んできた

今回は50嵐で2回、タピオカグリーンミルクティーを飲んできた。
1杯35元なので、120円ぐらい。
結構手軽に飲むことが出来て、日本でいうと駅の自動販売機で飲み物を買うぐらいの手軽さ。

50嵐はドリンクバーなのでタピオカ以外を選んでもいいのだけど、2011年に台湾でタピオカミルクティーを飲んでから、台湾に行くたびに、ついついタピオカを注文してしまう。個人的には紅茶のものよりも緑茶ベースの方が美味しいと思う。さらに個人的には、もともと甘めのタピオカミルクティーに砂糖を多めにしてもらうと、もっと美味しいと思う。さらにさらに個人的には、砂糖は70%か100%、氷はなしにしてもらっている。


カロリーについては個人的には気にしていないが、そういう人ばかりでもないと思うんで、自分が楽しめるように好きなようにアレンジしたらいいかと思う。


台湾で国際学会に参加してきた

今日まで台湾の高雄で国際学会に参加してきた。
今回のは、コンピュータ関係とIT関係、ということで、普段の数理最適化よりも幅広くいろんな内容を聞くことが出来て、面白かった。
あと、コンピュータやITのあたりだと、数理最適化のように数学のイメージが強いところって、あんまり人気がないのかも、と個人的には思ったりする。

まぁ、それはさておき、今回の学会では台風11号が高雄を直撃して、学会のスケジュールにも大幅な変更があった。学会運営の方も「安全でないと思ったら、無理してまで学会会場に来ずに、ホテルに留まってほしい」とアナウンスしたりで、あちこちに影響が出ていた。参加者も大変には大変だったと思うけど、学会運営の方も今回の大幅な変更には、さぞ大変だったに違いない、と思う。

2019年8月14日水曜日

ICCOPT2019に参加してきた

先週一週間かけて BerlinのICCOPT2019に参加してきたので、簡単にメモなどしておく。

今回のフライトはKLMというこでアムステルダム経由。機内では、あまり新しい映画はなかったけど「Fly me to the Saitama」があったので、これをチェック。この映画、埼玉・東京・千葉・神奈川に住んでいると面白いけど、関西あたりとかの人だと地名もよく分からないのでは?しかも、海外の人にも分かるんだろうか。例えば New York のとなりに New Jersey があるけど「Fly me to the New Jersey」とかあって日本人にどれだけ分かるだろうか、っていう感じ。
ただ、話の内容は結構シリアスなところもあり、多くの難民問題を抱えるヨーロッパの人たちに見てもらいたいところもある。

まぁ、そんなこんなでフライトは特に問題なく、ベルリンに到着。会場はTU BerlinということでISMP2012と全く同じ建物。7年前の地図を頭の中に思い出したりで、まったく迷うことなく到着。テーゲル空港に着陸してからバスを乗り継いでホテルにチェックインしてからも65分で会場に到着できる。

今回のセッションの割合からいうと、やはり機械学習とか、それに関連した内容は多い印象がある。ただ、こういった内容も数理最適化の理論的研究という意味では、ISMPのときよりも減りつつあるかも、という印象がある。
でも、それで何もかもなくなってしまう、ということでもなく、周辺分野とミックスしてきて機械学習の知見をパーツとして使っている研究も多くなったりなどなど、「機械学習」が前面に出てこなくなっている、という一面もあるんだと思う。
あと、機械学習関係は、それぞれの国で大きな予算がついているところもあったりするようで「大きな予算がないと勝負にならない分野になりつつある」という話を聞いたりすると、そういうものの考え方もあるのね、と思ったりする。

あと、数理最適化の中でも分野ごとに年齢層は結構違っていて、あるセッションでは発表も聞いている人も若い人だらけ、という分野があった。こういう分野は、将来的に成長する可能性もあると思うので、どういった内容があるかはチェックしておこうかと思う。

ちなみに、学会バンケットはボートでシュプレー川での往復で、ヘルムホルツ通りあたりで乗船と下船だったけど、アレキサンダープラッツまで行ったりで、テレビ塔があったり、博物館島の横を通ったりととても面白かった。国会議事堂や連邦首相府のすぐ近くも通ったりする。ただ、ビュッフェの料理が1か所にしかなく、長い行列になっていた。やはりICCOPTは連続最適化の集まりなので、ロジスティクス関係の最適化には弱いに違いない。

学会以外のところでは、TU Berlin からすぐ、ということで動物園駅のあたりにも寄ってきた。2012年のときとあまり変わってもいないけど(駅前のバーガーキングは撤退してた)、2016年12月にテロがあった関係で教会のあたりは車では入りにくくなっていた。

学会の方は全体的にスムーズに進み、発表件数は約700件、ということでは3年前よりも30%ぐらい増えている。
3年後の ICCOPT がどこで開催されるか、というアナウンスは特になかったけど、やはりアジア、ヨーロッパ、ときたら南北アメリカ大陸のあたりになるんだろうか?


(食事編)
今回は何泊かしたので夕飯については、みんなで食べに行ってガヤガヤ楽しんだり、ひとりでレストランに行っておとなしく楽しんでみたり、と色んなパターンが楽しめた。一番おいしかったと思うのは、シュニッツエルで長さが40㎝もあって食べきれなかったけど(下にたくさんのポテトサラダも構えている)、とにかくできたてアツアツでおいしかった。


2019年7月9日火曜日

Marpが簡単なスライドづくりに便利

他の人にメモを送るときに TeX の数式を入れたいときがある。
こうなると、TeX で書いてコンパイルして、という作業が必要だけど、そもそも1,2枚の5個ぐらいの数式だとわざわざ TeX で書くのも大げさな気がする。

そういったときに Marp を使うと簡単にできる。インストールする必要もなくて
https://web.marp.app/
にアクセスして、適当に数式を $$ で挟んで書くだけ。これで TeX の数式で書ける。(正確には KaTeX の数式を書ける。)

リアルタイムで変換されるのでコンパイルの必要もないし、出来上がったら左上の青い三角のあたりでPDF出力することもできるし、markdown で保存しておくこともできる。


2019年6月11日火曜日

査読に6年の論文がある

今日、ある論文の投稿した日と採択された日に何気なく目をやってみたら、なんと6年もかかっていた。
査読の途中に何があってこれだけ時間がかかったかは、もちろん論文には書かれていないわけだけど、それにしても6年というのは長いものだ。。。ここまで時間がかかっても途中で挫けなかった著者はすごいな、と思ったりする。





2019年6月1日土曜日

ヒトの有効な集団サイズが1万人しかない

最近、ちょっと調べ物をしていて集団遺伝学などに表れる「有効な集団サイズ」を調べたりしていたら、「ヒトの有効集団サイズが1万人程度しかない」というブログ記事があった。
http://macaque.blogspot.com/2010/09/blog-post.html

いまの世界人口が70億人を超えていることを考えてみると、1万人というのは結構少ないような印象もある。
個人的には「え、そんだけでいいの?」という感じでもある。

2019年5月22日水曜日

論文読み:皇帝ペンギン

皇帝ペンギンのふるまいを使ってメタヒューリスティクスを使ったという論文があり、これがなかなかに面白い。

Emperor Penguins Colony: a new metaheuristic algorithm for optimization
https://link.springer.com/article/10.1007/s12065-019-00212-x


皇帝ペンギンを数理モデル化する、というアイデアが、なかなか簡単には着想できるようなものでもないし、どうやって皇帝ペンギンにたどり着いたかが気になるところ。

あと、前半はメタヒューリスティクスのサーベイとしても、いろんな動物がモデル化されていることが分かって、これも興味深い。
動物図鑑を買いに行きたくなってしまう。

2019年5月9日木曜日

論文読み:Logarithmic-Barrier Decomposition Interior-Point Methods for Stochastic Linear Optimization in a Hilbert Space

最近はいろいろと制約条件がある関係で論文読みの内容をここには書いていなかったけど、たまには論文読みの内容を書いておくことにする。
今回読んだ論文があるのは、
http://www.optimization-online.org/DB_HTML/2019/04/7148.html

最近の内点法の論文には、一連の論文になっていることがあって、例えば
[1] まずは LP について書く
[2] 次に Convex Quadratic Programming について書く
[3] そして SOCP に拡張して
[4] さらに SDP に拡張して
[5] 最終的に錐最適化に拡張する
と5本ぐらいの論文が一連の論文となっていたりする。

今回挙げた論文の文脈では、[5] までは既存論文で行われている内容で、
[6] Hilbert 空間に拡張する
ということが行われている。

個人的に面白いと思うのは、[1]-[6]までで計算量のオーダーが変わらないことである。
つまり、計算量という観点だけから見ると、self-concordant が使える範囲では計算量が悪化しない。



2019年4月13日土曜日

最適化理論の難しさ

非線形最適化では制約想定を仮定したうえで収束とかの議論を行うことがあるが、制約想定のうちの一つのMangasarian-Fromovitz制約想定を扱ったものについては、間違った結果や証明を行っているものも少なくないようだ。

https://arxiv.org/pdf/1803.11304.pdf

個人的には、Newton 法の2次収束についての証明における「最適解に十分近いところからスタートすれば」というのが、ちょっと変だなぁ、と感じることもある。終了判定に使う閾値をεとしたときに「最適解からε未満の距離にある点からスタートすれば」当然ながら最初の終了判定でアルゴリズムは終了するので、2次収束よりも圧倒的に高速である。このあたりに最適化理論の解析の困難さが付きまとっているように感じている。

2019年4月2日火曜日

Julia の PyCall で python ファイルを reload する

Julia の Pycall だと、pyimport で python のファイルを読み込みはできるが、python ファイルを修正しても pyimport のそのままでは読み込めない。
これを回避するには、以下のように pyimport に reload とかをつける必要がある。
(たぶん python 側の制約じゃないかと思う。)


ここでは、test_py.py の中に test1() という関数がある場合とする。

まずは、python でどれを使っているかを明示して、
ENV["PYTHON"] = "/usr/bin/python"
それから、現在のディレクトリを python の path に通す。
using PyCall
if PyVector(pyimport("sys")["path"])[1] != ""
    pushfirst!(PyVector(pyimport("sys")["path"]), "")
end

このあとは、
if @isdefined(test_py)
    test_py = pyimport("importlib")["reload"](test_py)
else
    test_py = pyimport("test_py")
end
とする。
初回は pyimport("test_py") で読み込めるが、2回目以降は読み込めないので、これを "reload" を使って再読み込みするようにしている。

このようにすれば、test_py.test1() としてモジュールの中の関数を呼び出すことができる。

2019年3月7日木曜日

Inkscape の LaTeX エクステンションが利用不可になってた

TeX に入れ込むための図を作るのに Inkscape を試してみたが、LaTeX 用のエクステンションが使えずに断念。

どうやら、エクステンションの中で使われている pstoedit が SVG をデフォルトではサポートしないように変更になったらしく、エクステンション側でそれに対応できてないようだ。

実際の変換は PS ファイルを SVG にする作業なので、ImageMagick の convert で代替できるわけだが、この作業をエクステンションの python スクリプトで書こうとするとディレクトリやパスの問題で簡単でもないようだ。

2019年2月4日月曜日

sdpa の debian パッケージが [armel hurd-i386 mips mipsel] で使えない状況に

この週末に debian パッケージ管理のほうからメールが来て、
[armel hurd-i386 mips mipsel] のsdpaパッケージを build できなくなったということ。
原因としては、依存している openblas がこれらのアーキテクチャでは提供されなくなっているため、ということだった。

おそらく、これらのアーキテクチャで sdpa をインストールすることはほとんどなさそうなので、当面はそのまま置いておくことになるかと思う。

debian パッケージは、パッチをあてて dsfg-2 とかにするのもありなのだけど、このやり方が複雑で難しすぎるので、むしろアップストリームのほうを修正してしまった方が簡単だったりする。