astamuse Lab

astamuse Labとは、アスタミューゼのエンジニアとデザイナーのブログです。アスタミューゼの事業・サービスを支えている知識と舞台裏の今を発信しています。

デザインの参考になる(かもしれない)映画8選+α

おつかれさまです、krtです。

この度はデザインの参考になる(かもしれない)映画作品をピックアップしてみました。
何がどのように参考になるのか、イイ感じなのか、をまとめましたので併せてご覧下さい。

ムーンライト

こちらは2017年に開催された米アカデミー賞で初めてLGBTをテーマにした作品での「作品賞」受賞とのことで非常に話題になった作品です。

本作の何がデザイン的にすごいかと言えば、スクリーンに映し出される黒人俳優たちの美しさです。
常にキラキラとした陽光が画面に降り注ぐ日中のシーンでは主人公達の肌は彫刻のようにそれを照り返し、夜間のシーンでは青白い月明かりの下で肌が発光しているかのように映し出されるのです。 これは単に撮影技術が優れているだけではありません。
美しさの最も大きな要因のひとつは、撮影されたあとで俳優の肌にデジタル加工を施していることが挙げられます。 本作はアレックス・ヴィッケルというカラリストが全シーンのカラーバランスを調整し、主に肌の色にこだわって美しい肌つやを実現し、映像をさらに美しく見せているのです。

写真のレタッチでも分量が多いだけで気が滅入るのに、動画となるともう…想像するだけで気が遠くなりますね。 今後は日本でもこういった動画のカラー調整及びレタッチのような仕事もぐんと増えてくるかもしれません。


映画『ムーンライト』予告

※詳しくは下記の記事をお読み下さい www.indiewire.com

ネオンデーモン

こちらも今年に日本公開されたニコラス・ウェンディング・レフン監督の作品です。
本作に限ったことではなく、彼の作品はハイコントラストなカラーリングが特徴的で、その極彩色の世界観によってグロテスクな空間を作りだすのが得意な監督です。

最近知ったことなのですが彼は中間色が見えづらい色覚異常があるためハッキリした色でなければ画面の識別がしづらいとの告白をしていました。 だからといって作品全てのシーンがハイコントラストというわけではなく、淡い色をベースにまとめたシーンも見受けられます。
ネオンカラーがまばゆい作品ではありますが、コントラストを付けるだけでなく淡い色の変化の中でもきっちりとした色調の差によってクリアな画面を作り出すヒントになる作品だと言えます。


The Neon Demon Official Trailer #1 (2016) - Elle Fanning, Keanu Reeves Horror Movie HD

タンジェリン

こちらはなにが驚きかというと、全編iphone5sにアナモレンズを取り付けて撮影された作品であるということです。
短編作品や学生の作品などではスマホ撮影の映画はさほど珍しくはないかもしれません。 また長編作でもワンシーンだけ利用されることもあるのですが、本作は88分の中編作品でそれなりの上映時間です。 変化球の機材を使用した映像作品は「これで撮影された」という触れ込みが出オチになってしまうため、1時間以上観客の興味を持続させるには骨が折れる作業だったに違いありません。
ただiphoneを使って撮影されたという以上に試みとしてチャレンジングな作品であったと言えます。 そのチャレンジとクリエイティビティをぜひ一度見てみることをお勧めします。


Tangerine - Red Band Trailer

ハードコア

先の『タンジェリン』はiphone5sでの撮影とのことでしたが、こちらはなんと全編GoProで撮影されています。
撮影で使用されたカメラはGoPro HERO3 Black Edition。

http://www.tajima-motor.com/gopro/hero3/www.tajima-motor.com

しかしながらこちらは米国GoPro社の全面バックアップがあったとのことで、多少なりともプロモーション的な意味合いもあったのかもしれません。
またGoPro撮影といったらもうお分かりかと思いますが、全編主人公目線のPOV形式のアクション映画なので大画面でSPF動画を観ているような感覚です。 つまりは画面酔いが著しいので三半規管が弱い人は見る際に十分気をつけましょう。

『タンジェリン』にも言えることですが、トリッキーな撮影機材を使用するということ、つまりは作るための道具(ツール)を変えるという単純なことによって、もしかしたら世界の見方を変えられるのではないか?そして想像もしていなかった新しいコンテンツを創ることができるのではないか?という可能性を感じさせてくれる作品になっています。


映画『ハードコア』日本版予告編

グランド・ブダペスト・ホテル

本作は2014年公開のウェス・アンダーソン監督作品です。
この監督作品もかなり特徴があり、画面構成がとにかくキッチリしたシンメトリーで構成され、徹頭徹尾カラーコーディネートされています。 小道具から大道具、衣装、風景、全てにおいて神経質なまでに配慮が行き届き、ポップであるにもかかわらず濃密な作家性が作り出されています。

ここまでキレイにバランスが取れた画面構成はデザイナーの方だと見ていて気持ちが良いくらいなのではないでしょうか。
『神は細部に宿る』、とはよく言ったもので細部まで計算して設計することの美しさがよく分かる作品の1つです。


映画『グランド・ブダペスト・ホテル』特報

フェイズIV 戦慄!昆虫パニック

打って変わってこちらの作品は1974年の作品です。
グラフィックデザイナーの方には馴染みのある、ソール・バスが監督した作品です。 彼は映画のタイトルバックデザインの先駆者とも言われており、タイトルバックデザインに初めてコンピューターグラフィックを取り入れたのも、キネティック・タイポグラフィを導入したのもソール・バスです。
googleロゴでも彼の作品動画を制作していたので知っている人も多いのではないでしょうか。


Doodle for Saul Bass' 93rd Birthday

そんな彼の本作のテーマは虫。虫っていうか主に蟻。
パニックホラーのようなタイトルなので手に取りにくい作品かも知れませんが、やはりそこはソール・バス、映像表現が巧み。
いや、匠。
普通の蟻を撮影しているだけなのですが、無言の蟻たちの意識が手に取るようにわかるその演出、映像表現は普通の映像作家とは違ったの世界観を作り出しています。
グラフィックデザイナーの方は話の種に、ぜひ一度ご覧になることをオススメします。


Phase IV (1974) Trailer (※後半のフラッシュの点滅にご注意ください)

ソング・オブ・ザ・シー 海のうた

こちらはもう…キュート・プリティー・ビューリフォー!
しかし本作はただ可愛いだけではなく、キャラデザイン、特にデフォルメのバランス感覚が卓越しています。
アイルランドに伝わる神話を元に製作された本作は、ピクト文化という古代から伝わるデザインを取り入れているとのことです。
古くから存在するデザインパターンやイメージを取り込んではアップデートし、それによって新しいコンテンツを製作するという試みは日本が得意とするアプローチ方法でもありますが、本作はそのアプローチを最も洗練した形で応用している作品と言えるでしょう。


「ソング・オブ・ザ・シー 海のうた」ミュージッククリップ

ユーリー・ノルシュテイン作品集

ロシアのアニメーション作家、ユーリー・ノルシュテインの6本の短編(『25日・最初の日』『ケルジェネツの戦い』『アオサギとツル』『キツネとウサギ』『霧の中のハリネズミ』『話の話』)を集めた作品集です。

6本それぞれの特徴を上げると、『25日・最初の日』はロシアン・アヴァンギャルド的でありつつもキュビズム的な立体感があり、『ケルジェネツの戦い』は宗教絵画的でフレスコ画やテンペラ画を彷彿とさせます。 『アオサギとツル』は日本の浮世絵や水墨画から着想を得た作品らしく、また初めて複数の背景を重ねる手法を取り入れた画期的な作品のひとつです。 『キツネとウサギ』『霧の中のハリネズミ』の2作は童話的で絵本の世界観がそのまま動いている、という印象なのですが『キツネとウサギ』はロシアの民話を元にしたストーリーで、ガラジェッツ絵画と呼ばれるデザインパターンを取り入れた色彩が豊かな作品となっています。 一方『霧の中のハリネズミ』は背の低いハリネズミが空を見上げたり、霧の中に迷い込んだりするシークエンスは奥行きを感じさせる演出で、こちらは多層にしたガラス面に切り絵を配置して奥行きを演出する、マルチプレーンという手法が用いられています。
最後の『話の話』は上記の一連の手法やテーマを総括した作品のように見えます。また、そこに観念的な要素が組み合わさっていため1回観るだけだとなかなか理解が難しい作品でもあります。

このように様々な手法を柔軟に取り入れた作風なのですが、全ての作品に統一感があります。 新しい手法を積極的に作品へ取り込む柔軟性と応用力の高さ、また取り入れるだけでなく自分のものにしている部分などは、分野・時代が違えど見習うべき美徳であります。


ユーリー・ノルシュテイン監督特集上映「アニメーションの神様、その美しき世界」予告編

おまけ

アート・オブ・デザイン www.netflix.com

これは映画ではなく、ネットフリックス制作のデザイナーに焦点をあてたドキュメンタリードラマ(?)です。

全8回で1作40分前後なのでさくっと見ることができます。 また、取り上げられている作家はイラストレーター、フットウェアデザイナー、舞台デザイナー、建築家、自動車デザイナー、グラフィックデザイナー、フォトグラファー、インテリアデザイナー。 とっても幅が広い。 見るだけで創作意欲が刺激されますし、そもそもデザイナーに焦点を当てるというのも少々珍しく貴重で素敵なドキュメンタリーだと言えます。 ぜひ2シーズン目も作成していただきたいものです。

以上8本+αのご紹介でした。

Databricks Community Edition で Spark に触れる

山縣です。

今回は Spark を無料で手軽に触れる Databricks Community Edition について書きたいと思います。

Databricks Community Editionとは

Databricks は Databricks 社が提供しているSparkサービスで、Community Edition はその無料版にあたります。

無料にもかかわらずメモリ6GBのAWSのインスタンスとNotebook が使えるというなかなか太っ腹なサービスです。

弊社では Cloudera社の CDH のクラスタがありSparkもその上で動かしていますが、個人的にSpark そのものの動作を確認したり、異なるバージョンを触りたいときに時々使わせてもらっています。

Sparkの学習用環境としては十分な機能が備わっていると思いますので、簡単に紹介したいと思います。

ユーザ登録

Community Editionを使用するためにはユーザ登録が必要です。

ユーザ登録はTRY DATABRICKS画面の右側の Community Edition の下にある
START TODAY ボタンを押してフォームに情報を入力します。 クレジットカードなどの課金情報の入力は必要ありません。 フォームを登録後、登録したアドレスにメールが来るのでリンクをクリックしてメールアドレスの確認ができれば完了です。

一般的な Web サービスのユーザ登録と変わらないと思います。

登録が完了したら ログイン画面からログインします。

ログインすると下記のような画面になります。

f:id:astamuse:20170517163345p:plain

左縦にメニューがあります。

クラスタの起動

まずは Spark クラスタを作成・起動します。

左側のメニューの Clusters ボタンを押すと、クラスタの一覧表示の画面になります。 画面上部にある + Create Cluster ボタンを押して新規にクラスタを作成します。

f:id:astamuse:20170517164313p:plain

Cluster Name に適当に名前を入れ、Databricks Runtime Version で起動したい Sparkを選択します。

選択するSparkの一覧は大まかに言ってSpark のバージョンそのものと、Scala のバージョンを 2.10 にするか 2.11 にするかの組み合わせの一覧となっています。

f:id:astamuse:20170517173935p:plain

Sparkのバージョン名は Spark <バージョン>-dbN という形式になっており、<バージョン>の部分は元となるApache Spark のバージョンを、 dbN の部分はdatabricks release番号を示しています。 同じSparkのバージョンに対してDatabricks がbackport や独自機能を加えてリリースしています。

また (Auto-updating) となっているものはdatabricks release が常に最新のものを自動的に選択するようになります。

なおこの記事を書いている時点で Spark2.2 のRC2 が利用可能になっていました。 折角なので “Spark 2.2 RC2 (Experimental, Scala 2.11)” を指定します。

Community Edition の場合、Instance の細かいカスタマイズ等は出来ませんので、あとは AWS の AZ の選択とSpark の Config を指定するのみです。 ここでは何も指定せず、Create Cluster ボタンを押して起動します。

Cluster 一覧画面に戻り、しばらくすると起動が完了します。

f:id:astamuse:20170517164502p:plain

起動したクラスタは Spark のWebUIである、Spark UI にアクセスすることができます。SparkUIを見ると起動したクラスタの詳細が分かります。

f:id:astamuse:20170517164753p:plain

Environment を見てみると spark.master が “local[8]” となっておりlocalモードで起動していることが分かります。

またログを確認することもできます。 起動したクラスタはアイドル状態がしばらくすると自動的に停止します。停止したクラスタは一覧に Terminated Cluster として残っていますので再起動可能です。

Workspace

Workspace はルートフォルダでNotebook やライブラリなどはすべて Workspace 以下に保管することになります。サブフォルダを作ることもできます。 標準で共有用の Shared というフォルダとユーザのホームフォルダである Users/<アカウント> があります。Shared は企業などが複数のアカウント間でNotebook などを共有するためのフォルダのようです。とりあえず今回は Users/<アカウント>以下にNotebook やライブラリを置いていきます。

f:id:astamuse:20170517173542p:plain

Notebook

コードはNotebookに書いていきます。 Databricks の NotebookはIPython と互換性があるそうなのでIpython ベースなのかもしれません。

左メニューの Workspace から Users → <メールアドレス>を選択して Create→Notebook を選択します。

f:id:astamuse:20170518122510p:plain

Name を適当に入れ、 Language で使いたいプログラミング言語を選択します。 言語は Scala, Python, SQL, R が選べます。 ここでは Scala を選びます。

またNotebookを実行するにはSparkクラスタにアタッチする必要がありますので、接続する Spark クラスタとして先ほど作成したクラスタを選択します。

作成後、空のセルが一つだけあるノートブックが表示されます。

空のセルに以下の内容をコピペして Shift + Enter でセルを実行します。

case class T1(id:Int, message:String)
val ds1 = Seq(T1(1, "Hello"), T1(2, "World"), T1(3, "Hello"), T1(4, "Spark")).toDS
display(ds1)

f:id:astamuse:20170519163929p:plain

display() によって結果を表示することができます。

上記のセル実行後に下に空のセルができますので、さらにコードを追加します。

ds1.createOrReplaceTempView("t1")
val ds2 = spark.sql("select message, count(*) as num from t1 group by message order by num desc")
display(ds2)

f:id:astamuse:20170519164242p:plain

Notebook には以下の変数が事前に定義されています。

  • sc:SparkContext
  • sqlContext:HiveContext
  • spark:SparkSession (2.0以降)

結果はテーブルだけでなくグラフとして表示することもできます。 結果の左下のグラフボタンを押すとグラフに変えることができます。

f:id:astamuse:20170519165254p:plain

このNotebook は Scala 用として作成しましたが、他の言語のセルを追加することも出来ます。 上記の Scala で書いたSQLクエリは以下のように直接書くことも可能です。

%sql
select message, count(*) as num from t1 group by message order by num desc

%sql 以外に %python, %r, %scala, %sh(shell), %fs(Databricks Utilities) の指定もできます。

DBFS

Databricks の固有機能としてDBFS(Databricks File System)が使えます。 これは AWS S3上に作れらたファイルシステムでSSDにキャッシュすることで高速化しているとのことです。DBFS は Scala と Python から利用することが可能で、dbutils (Databricks Utilities)というライブラリ経由でアクセスします。dbutils は Notebook にビルトインされているので簡単に利用可能です。

display(dbutils.fs.ls("/"))

f:id:astamuse:20170518174807p:plain

fsのヘルプは以下のようにしてみることが可能です。

dbutils.fs.help()

f:id:astamuse:20170518175022p:plain

sparkのデータの保存先としても利用可能です。 下記ではDataset ds1 を parquet フォーマットで書き込んでいます。

ds1.write.parquet("dbfs:/tmp/ds1")
display(dbutils.fs.ls("/tmp/ds1"))

f:id:astamuse:20170519174223p:plain

Table

Databricks ではテーブルを利用することができます。 テーブルの作成はデータのインポートにより行います。データのインポート元してはファイルのアップロード、AWS S3などいくつかを選ぶことが可能です。

ここでは総務省が運用している統計データダッシュボードサイト のAPI を使って国内の都道府県別、年代別、西暦別の人口データををCSVとしてダウンロードしてインポートしてみます。また都道府県マスタもダウンロードします。

$ wget -O - 'http://data.e-stat.go.jp/dashboard/api/1.0/Csv/getData?Lang=JP&ParentRegionCode=00000&IndicatorCode=0201010010000010010,0201010010000010020,0201010010000010030' |tail -n +31 > jp_population.csv

$ wget -O - 'http://data.e-stat.go.jp/dashboard/api/1.0/Csv/getRegionInfo?Lang=JP&ParentRegionCode=00000'|tail -n +18 > jp_region.csv

$ head jp_population.csv
"indicatorCd","unitCd","statCd","regionCd","timeCd","cycle","regionRank","isSeasonal","isProvisional","value","cellAnnotations"
"0201010010000010010","090","20020101","01000","1975CY00","3","3","1","0","1312611",
"0201010010000010010","090","20020101","02000","1975CY00","3","3","1","0","380218",
...

$ head jp_region.csv
"upAreaCd","upAreaNm","upHiragana","areaCd","areaNm","areaLevel","hiragana","fromDate","toDate"
"00000","全国","ぜんこく","01000","北海道","3","ほっかいどう","190001","999912"
"00000","全国","ぜんこく","02000","青森県","3","あおもりけん","190001","999912"
...

上記の方法でダウンロードしたCSVをインポートします。 左メニュー → Tables→ +Create Tables でインポート画面が出ます。インポートのソースとしてFile を選択して jp_popluation.csv をアップロードを行います。

f:id:astamuse:20170519121655p:plain

Preview Table を押して Table name に “jp_population” を入力、First row is headerをチェックします。カラムのデータ型を選べますが、面倒なので String のままにしておきます。 (この辺データを見て自動で推測してくれると楽なのですが。)

最後に Create Table を押します。 なぜか画面にエラーメッセージが一瞬出ますが、問題なく登録できます。 作成したテーブルはSQLからその名前でアクセス可能です。

%sql
select * from jp_population

f:id:astamuse:20170519124844p:plain

同様に都道府県データを jp_region という名前でテーブルに登録します。

f:id:astamuse:20170519124634p:plain

インポートした二つのテーブルをJoinして使いやすいようにしてみます。

val pop = spark.sql("""
select 
  regexp_replace(p.timeCd, 'CY00', '') as Year,
  r.areaNm as Prefecture, 
  case p.indicatorCd
    when '0201010010000010010' then '0~14歳'
    when '0201010010000010020' then '15~64歳'
    when '0201010010000010030' then '65歳以上'
    else 'その他' END as Age,
  cast(p.value as Int) as Population
from jp_population p join jp_region r on p.regionCd = r.areaCd
""")
pop.createOrReplaceTempView("pop")
display(pop)

上記処理によって “prefecture”, “year”, “population” をフィールドとして持つテーブル “pop” を作ることができました。

例えばこのテーブルを使って東京都の西暦、年齢層のグラフを作ると以下のようになります。

f:id:astamuse:20170519151841p:plain

外部ライブラリの利用

外部ライブラリの利用はScala/Javaの場合は JAR ファイルをアップロードするか、Maven Central/Spark Pcakages からダウンロードするかになります。

まず Maven から 自然言語処理ライブラリであるStandford CoreNLPをダウンロードしてみます。

ライブラリの取り込みもNotebook と同じようにWorkspace のフォルダ内のメニューで Create → Library と実行します。

Source として Maven Coordinate を選択し、Search Spark Packages and Maven Central を押します。

検索ボックスに corenlp と入れ、spark-corenlp を、Rleases は利用している Scala のバージョンに合うものを選択します。ここでは “0.2.0_s_2.11” を選択しました。

f:id:astamuse:20170519152750p:plain

元の画面に戻るので Create Library を押すと、選択したフォルダ内にライブラリが作られます。

早速利用してみます。

import org.apache.spark.sql.functions._
import com.databricks.spark.corenlp.functions._

val input = Seq(
  (1, "<xml>Stanford University is located in California. It is a great university.</xml>")
).toDF("id", "text")

val output = input
  .select(cleanxml('text).as('doc))
  .select(explode(ssplit('doc)).as('sen))
  .select(
    'sen, tokenize('sen).as('words)
   )
display(output)

f:id:astamuse:20170519155320p:plain

とりあえずトークナイズはできました。他の機能も使ってみます。

val output = input
  .select(cleanxml('text).as('doc))
  .select(explode(ssplit('doc)).as('sen))
  .select(
    'sen, tokenize('sen).as('words),
    ner('sen).as('nerTags),
    sentiment('sen).as('sentiment),
    lemma('sen).as('lemma)
  )
display(output)

f:id:astamuse:20170519155718p:plain

ner(), sentiment(), lemma() というメソッドを使おうとしましたがエラーとなりました。 language model データが無いのが原因なのですが、Maven経由ではlanguage modelデータを入れられませんでした。 調べてみると Databricks社のほうで、対応方法を記したNotebookが出ていました。

こちらは model の jar ファイルをダウンロードしてSprkContext に直接jarを追加するというやり方です。このやり方を試してみましたが、残念ながらうまく動きませんでした。さらに調べているとクラスローダを取得してそちらに追加する方法を書かれている人もいましたがこちらもうまく行きませんでした。 仕方ないので model の jar ファイルをライブラリとして直接アップロードを試みました。

これは先ほどの Maven経由と同じ手順で方法で “Create” → “Library” としてSource を “Upload Java/Scala JAR” にしてファイルを指定する方法となります。

残念ながらmodel のJARファイルは1GB近くあり、アップロードの途中でエラーとなってしまいました。最終的には model jarファイルを3つに分割してアップロードすることで何とか対応できました。

f:id:astamuse:20170519162054p:plain

ライブラリ登録後、再度実行すると今度は結果を返すことができました。

APIによる操作

Databricks はREST API を提供しており多くの操作がAPI経由で可能です。

APIの認証はBASIC認証で行われ、ユーザとパスワードはWebUIにログインするときと同じものとなります。

APIへのアクセスは以下のURLになります。

https://community.cloud.databricks.com/api/2.0/…

例えばクラスタの一覧を得るには以下のような URL でアクセスします。

https://community.cloud.databricks.com/api/2.0/clusters/list f:id:astamuse:20170519174852p:plain

APIに関する情報はこちらのドキュメントにあるので参照してください。

終わりに

以上、Databricks Community Edition で使える機能について見てみました。無料で使える割にはクラスタの作成、Notebook、データストアと必要な機能が一通りそろっておりSparkの学習をしたい人にはかなりおススメです。

最後に弊社では Spark をはじめとして様々なデータ処理や基盤構築などを行うソフトウェアエンジニアを募集中です。興味のある方はこちらのサイトをご参照ください。

特許とその制度について 出願時に申請できる特例と特殊な出願

お久しぶりです。主に特許関連のデータ処理を担当しているBTと申します。 今回は、出願時に申請できる特例と特殊な出願についてご説明いたします。 宜しくお願いいたします。

出願時に申請できる特例

出願時に申請できる様々な特例について説明します。

新規性喪失の例外

出願する内容についてすでに学会で発表しているあるいは論文誌に載せているといった場合には、新規性の喪失の例外の適用を受ける必要があります。そのためには、特許出願と同時にその旨を記載した書面を提出します。さらに出願から30日以内に証明書の提出を行う場合もあります。これらを行わないと、出願の内容を一般に公開したというこれらの事実を理由に拒絶査定となってしまうためです。

新規性の喪失の例外の適用は、出願の内容を第三者に知られる状態となってしまってから6月以内に出願した場合のみに申請することが可能であるため注意が必要です。また、異なる別個の事象や理由で出願の内容が第三者に知られる状態となっている場合は、その事象や理由毎に申請が必要な点にも注意が必要です。

申請が認められると、出願の内容が出願前に第三者に知られる状態となった事実は無かったものとして扱われます。

かっては新規性の喪失の例外は適用条件がもっと厳しかったため、同じ研究内容について論文の投稿と特許出願または実用新案登録出願をする場合は、必ず論文の投稿より先に特許出願または実用新案登録出願を済ませてしまうようにと言われて苦労したものですが、現在は新規性の喪失の例外の適用条件がかなり緩和されたため使いやすい制度になっています。

優先権主張(パリ優先権主張)

パリ条約の日本以外の同盟国においてにすでに出願済みの内容と同じ内容について出願する場合は、優先権(後述する国内優先権とは別物で、区別するために以下パリ優先権とする)を主張することができます。そのためには、その旨と同盟国の国名と同盟国における出願日を記載した書面を出願から一定期間に提出します。

日本以外の同盟国における出願日から1年以内に同一内容または一部の内容について出願を行う必要があります。

優先権の適用が認められた場合は、同盟国における出願日を基準として判断されるようになります。

国内のみに出願する場合には意味の無い特例ですが、広く海外に事業を展開している企業で海外の国に先に出願したり海外の国において国際出願したりする場合に有効に利用できる特例です。

外国語書面出願

出願内容の記載は日本語で行うのが原則ですが、海外の企業などの場合日本語に翻訳するのにどうしても時間がかかる場合があります。そのような場合に利用できるのが外国語書面出願です。出願で提出するべき書類のうち願書のみ日本語で作成(外国語書面出願であることを願書に明記)して、他の書類は英語をはじめとする外国語で出願することができます。

ただし、出願から1年4月以内に日本語による翻訳文を提出する必要があります。翻訳文の提出をしない場合は出願人に通知がなされますが、それでも翻訳文の提出が無い場合は取り下げという扱いになります。 また、翻訳文は出願時に英語をはじめとする外国語で記載されたもとの内容を超えるものであってはなりません。もとの内容を超えた場合は誤訳訂正書を提出して補正しない限り、拒絶査定となります。

外国語書面出願は以前は英語でしか受け付けてもらえませんでしたが、今では英語以外の外国語でも受け付けてもらえるようになり、英語圏以外の国の出願人にとって便利なものになりました。

参照出願

国内または他の国ですでに特許出願した内容と同じ内容について特許出願する場合に、これを参照するように主張して特許出願することができます。この場合、特許請求の範囲や明細書、図面の提出は省力することができます。参照先が外国語でなされた特許出願の場合は、出願日から4月以内に翻訳文を提出する必要があります。 しかし、この制度は最近になって特許法条約を批准するために設けられた規定で、すでに上記の外国語書面出願や下記で説明する分割出願、変更出願等様々な制度が整っている我が国ではほとんど意味の無い規定となっています。他にもっと有利な条件で出願できる制度がいろいろとあることから、実際にこの方法で出願する人はいないのではないかと思われます。

特殊な出願

通常の出願とは異なる特殊な出願について説明します。ここでいう特殊な出願とは、すでに国内においてなされた何らかの出願をベースとして行う出願のことです。

国内優先権主張を伴う出願

国内ですでに出願(以下、先の出願)済みで、先の出願の内容をさらに発展させた発明や不十分な部分を補った発明について新たな出願を行いたい場合は、国内優先権主張を伴う出願(以下、後の出願)を行うことができます。 国内優先権主張を伴う出願では、後の出願に含まれる内容のうち先の出願に記載されている内容については先の出願の出願日を基準として判断されます(下記に記載する他の特殊な出願と異なり、後の出願の出願日が先の出願の出願日に遡及するわけではありません)。

国内優先権主張を伴う出願、先の出願から1年以内に出願する必要があり、国内優先権主張を伴う出願を行った場合、先の出願はその出願から1年3月経過した後に取り下げという扱いになります。また、先の出願がさらに前の出願に対する国内優先権主張を伴う出願であってはなりません(このような場合は、後の出願の国内優先権主張は無効となって後の出願の出願日で判断されることになります)。

国内優先権主張を伴う出願の目的は、最初に出願した発明や考案を出発点として、この発明や考案をを基本としつつ、その後の改良発明や考案等を取り込んだ十分な内容の出願へと発展させることです。

通常出願とは異なる特殊な出願の中で最も利用されている出願形態だと思われます。この出願制度の表向きの趣旨は出願の内容を充実させることなのですが、権利化された場合は後の出願の出願日を基準として存続期間が発生するため、存続期間を最大で1年延ばす効果を持っていることがよく利用される理由の一つでしょう。

分割出願

2以上の発明や考案を包含する出願(以下、もとの出願)の一部について、1又は2以上の新たな出願(以下、新たな出願)をして、もとの出願を複数の出願に分割することができます。その新たな出願は、分割前のもとの出願の時にしたものと見なされて出願日が遡及し、新たな出願は審査等においてもとの出願の日を基準に判断されることになります。

分割出願はいつでもできるわけではなく、先の出願について補正ができる期間、先の出願について特許査定・登録査定又は最初の拒絶査定の謄本の送達があった日から3月以内に限られ、もとの出願について登録または拒絶が確定している場合も分割出願をすることはできません。 新たな出願において、もとの出願に記載されていない内容が追加されていると認められた場合は、出願日が遡及せず新たな出願を実際に出願した日が出願日として扱われますので注意が必要です。 また、分割出願を行うともとの出願と新たな出願で同じ内容が記載されている状態になりますので、もとの出願については新たな出願に記載した内容を削除する補正を行う必要があります。これを行わないと、もとの出願と新たな出願でそれぞれを引用されて拒絶査定となってしまいます。

分割出願の目的は、大きく2つあります。もとの出願において、全ての請求項で同一の特別な技術的特徴を持たない(単一性を満たさない)と審査で判断された場合、拒絶査定となります。これを避けるため、もとの出願および新たな出願のそれぞれで単一性を満たすようにもとの出願から分割出願を行うことにより単一性を理由とした拒絶査定を回避することができます。さらに、もとの出願に含まれている複数の請求項のうち、一部についてはすぐに特許査定となりそうだが、他については補正や審判等で時間がかかりそうな場合があります。このような場合に分割出願を行ってすぐに特許査定となりそうな発明については早期に権利化を行い、残りについてはじっくりと対応を検討するといったことが可能になります。

分割出願は、特殊な出願の中で国内優先権主張を伴う出願に次いで多く利用される出願形態だと思います。審査の過程で補正をくりかえすことで分割出願する必要が生じたり、さまざまな効果を狙って分割出願をしたりする場合が多いと思われます。

変更出願

すでに行った実用新案登録出願又は意匠登録出願(以下、もとの出願)を特許出願(以下、新たな出願)に、またはすでに行った特許出願と意匠登録出願(以下、もとの出願)を実用新案登録出願(以下、新たな出願)に、それぞれ変更することができます。これを変更出願といいます。変更された新たな出願は、もとの出願の時にしたものと見なされて出願日が遡及し、新たな出願は審査等においてもとの出願の日を基準に判断されることになります。

変更前の変更出願ができるのは、特許出願に変更する場合はもとの出願が特許出願実用登録新案出願又は意匠登録出願の場合と、実用新案登録出願に変更する場合はもとの出願が特許出願又は意匠登録出願の場合のみであり、元の出願が商標登録出願の場合は変更出願することはできません。変更出願は、もとの出願がその出願日から3年を経過するまでに限られ、もとの出願が意匠登録出願である場合はその最初の拒絶査定の謄本の送達があった日から30日以内である場合も変更出願ができます。 新たな出願において、もとの出願に記載されていない内容が追加されていると認められた場合は、出願日が遡及せず新たな出願を実際に出願した日が出願日として扱われますので注意が必要です。 また、変更出願を行うともとの出願は取り下げという扱いになりますので、注意が必要です。もとの出願の一部について変更出願をしたい場合は、先に分割出願をしてその後変更出願するという手順が必要になります。

変更出願の目的は、はじめに特許出願をしたが実用新案登録で十分と判断した場合や、はじめに意匠登録出願をしたが意匠での権利取得が難しそうなので特許出願や実用新案登録出願に変更する場合などが挙げられます。

なお、もとの出願が実用新案登録出願である場合、形式的・基礎的な要件を満たすかどうかチェックする(方式審査)だけで、無審査(実体審査無し)で登録(出願から1月)となるため、通常は分割出願ができる期間はほとんどありません。しかし、仮に実用新案として登録された後であっても次に説明する実用新案登録に基づく特許出願の制度を利用することで特許出願に変更することができます。

特許出願とと実用新案登録出願と意匠登録出願で、出願内容の記載が似通っているのかといわれると、特許と実用新案はその通りなのですが、意匠についてはピンとこないかもしれません。形状が特別なこれまでにない技術的特徴と新規のデザイン性の両方を有している場合ということになるでしょうが、現実にはレアケースだと思われます。

実用新案登録に基づく特許出願

すでに実用新案登録出願を行って実用新案登録を受けている場合に、その実用新案登録の内容と同じか範囲内に含まれる内容について特許出願を行うことができます。その新たな特許出願は、実用新案登録出願のの時にしたものと見なされて出願日が遡及し、新たな特許出願は審査等においてもとの実用新案登録出願の日を基準に判断されることになります。

実用新案登録に基づく特許出願はもとの実用新案登録出願の出願日から3年を経過するまでに限られ、実用新案登録技術評価請求がなされてない(他人から請求された場合で、その旨の通知を受けた場合日から30日以内の場合は除く)など様々な制約があります。ここで、実用新案登録技術評価とは、無審査で登録される実用新案について特許庁がその登録内容について権利が有効か否か客観的な判断資料を提供する制度で、特許における実体審査にかわるものです。実用新案登録技術評価請求がなされているにもかかわらず特許出願を認めてしまうと、同一の内容についてまた特許審査することになってしまうためにこのような制約がかされています。 また、もとの実用新案登録は特許出願時に放棄する必要がありますので、特許出願の後の特許審査で拒絶査定となってしまった場合には一切権利が残らないことを注意する必要があります。

実用新案登録に基づく特許出願の目的は、実用新案権と比較してより強い権利である特許権を取得する手段の提供にあります。実用新案登録は無審査で行われる関係上どうしても弱い権利(権利の行使に上記の実用新案技術評価請求する必要があるなどの制約あり)であり、権利の存続期間も特許の半分の10年と短くなってしまいます。そのため、当初実用新案で十分として、実用新案登録出願をして実用新案登録を受けたが、その後思いのほか有用な技術であることが判明して存続期間を特許と同じように長くしたい、あるいはもっと強い権利にしたいといった場合に対応できるようにするために設けられている出願制度になります。

まとめ

以上、出願時に申請できる特例と特殊な出願について説明をしてきました。次回は、出願公開や審査について見ていきたいと思います。

最後になりましたが、 アスタミューゼでは現在、エンジニア・デザイナーを募集中です。 興味のある方はぜひ 採用サイト からご応募ください。

参考にした資料など

Copyright © astamuse company, ltd. all rights reserved.