Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

スマホでも動画再生させる方法。

2023.10.16

Logging

おはよう御座います、スマホでも動画再生させる方法を記載しますね。このコードをvideoタグに入れるとスマホでも動画が再生されるようです。iPhoneのSafariとchromeで動作確認済。最新のブラウザではスマホでも動画再生されるようです。

<video autoplay preload="none" loop="loop" muted="muted" playsinline=""

上記のコードで大事になるのが「playsinline」という所、この記述がなければスマホでは動画が再生されません。ググってもなかなかこのコードにたどり着くことが出来なかった。昔はスマホで動画が再生され無かったのですが、いまの最新のブラウザではスマホでも動画が再生出来るようになっているので、これは良い感じだなぁと思います。なお、ミュートとかオートプレイも大事だということも付け加えて置きます👍。

因みに一昔前だとサーバーサイドでストリーミング再生でとかしていたと思いますが、この手法が使えるようになってからは、かなり低予算で対応出来るようになったのではないかなって個人的には思いました。

明日へ続く😌

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Chrome, iPhone, loop, lt;video autoplay preload, muted, muted&quot, none&quot, playsinline, quot, quot;loop&quot, Safari, videoタグ, オートプレイ, サーバーサイド, ストリーミング再生, ブラウザ, ミュート, 一昔前, 手法, 記述,

Photo by Markus Winkler on Pexels.com

バルクアップデート、バルク=大量

2023.10.01

Logging

おはようございます、バルクアップデートという技を最近知りました。バルクとは大量を意味する言葉です、バルクアップデートとは大量のデータを一括でアップデートする手法です。結構、大量のデータをアップデート出来るのですが、それでも時間がかかります。因みに普通にアップデートすると「504 Gateway Timeout 」が発生する場合などに使用する良いと思います。

これでもUPDATEが出来ない場合は、一度、クラウドに一旦保存しておき、そこから再度、更新処理を行うと言った手法が良いかも知れません。何にせよ、大量のデータを一括アップデートは大変です。

Xのシェアしたものを貼り付けていますが、見れない人用にリンクも貼っときます。

https://gri.jp/media/entry/9838

明日へつづく😌。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Gateway Timeout, UPDATE, X, アップ, アップデート, クラウド, データ, バルク, バルクアップデート, リンク, 一括, 一括アップデート, 一旦, 再度, 大量, 手法, , 時間, 更新処理, 言葉,

Photo by Pixabay on Pexels.com

本を読む習慣、パラパラ読みだけど要点を。

2023.08.14

Logging

本を読むことは知識を得るために重要な活動ですが、ほとんどの人にとっては、時間の制約があります。そのため、本を効率的に読む方法が求められます。

一つの方法は「パラパラ読み」です。これは、本のページをざっとめくり、目に付くキーワードや文章の一部を読み取ることです。この方法では、本の内容を全て理解することはできませんが、大まかな内容やテーマをつかむことができます。特に、目次や章立ての見直しに役立ちます。

もう一つの効果的な方法は「速読術」です。速読術は、読み手の読解力や集中力を高める技術です。その中でも有名な方法は、目で文章を追いながら、一定のスピードでページをめくることです。この方法では、文章全体を理解することはできないかもしれませんが、キーポイントや重要な情報を把握することができます。

どちらの方法も、本を効率的に読むための手段ですが、注意が必要です。パラパラ読みや速読術は、一部の本や特定の状況に適しているかもしれませんが、全ての本に対して適用することは難しいです。特に小説や文学作品など、感性や表現力が重要な本は、ゆっくりと時間をかけて読むことが必要です。

要点を見極めるためには、目次や章立てを活用することが重要です。これらの情報を参考にしながら、自分が求める情報や知識が書かれている部分を重点的に読むことができます。また、本の最後にはまとめやポイントが書かれていることが多いので、最後のページを見ることも有効です。

さらに、読書の前に予習や関連書籍のレビューをすることも効果的です。これによって、読むべき部分や重要な情報を予め知ることができます。

本を効率的に読むためには、目的や目標を明確にすることも重要です。読みたい本が自己啓発や専門知識の獲得に関係がする場合、自分の目標と合致する内容や情報を見つけることが重要です。そのためには、キーワードや索引機能を活用することがおすすめです。

最後に、本を読む時間を確保することも大切です。毎日少しずつ時間を作って本を読む習慣をつけることで、知識の獲得や情報の吸収を効率的に行うことができます。

要点を見極めるためには、パラパラ読みや速読術といった手法を使うことが有効ですが、注意が必要です。適切な本や状況において活用し、目次や章立て、ポイントなどを参考にしながら、自分の目的や目標に合致する情報を見つけることが大切です。さらに、予習や関連書籍のレビュー、読書の時間確保も効果的な手段です。知識や情報を効率的に得るために、これらの方法を取り入れてみましょう。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

パラパラ読み, 一定, 予習, 制約, 吸収, 小説, 感性, 手段, 手法, 文学作品, 特定, 目次, 章立て, 索引機能, 習慣, 自己啓発, 要点, 読書, 読解力, 速読術,

デジタルツインが胸熱かも。NVIDIA強し。

2023.01.21

Logging

おはようございます、毎日、タスクを消化していく日々です。

さて、今日はデジタルツインが胸熱っていうお話です。デジタルツインとはリアルの世界と同じ環境をデジタルの中で作ってシュミレーションして見るというお話です。

Mercedes-Benz Adopts NVIDIA Omniverse for Vehicle Assembly and Production Planning
デジタルツイン

シュミレーションした良い結果は、リアル世界に反映していくという事でとても効率よい方法です。いま、この手法でロボットの学習させたり、自動運転のテストを何度も繰り返してAIに学習させたりしています。ある程度学習を積んだAIでリアル世界で実地テストするという感じです。

因みにこの世界も実は仮想世界かも知れないというのは、否定出来ないのかって思っています。まぁその話はまた今度しますが、デジタルツインは結構胸熱ですよ。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

AI, タスク, デジタル, デジタルツイン, テスト, リアル, リアル世界, ロボット, 仮想世界, 何度, 効率よい方法, 実地, 手法, 日々, 環境, 程度学習, 胸熱, 自動運転, 良い結果, ,

LinkedIn(リンクトイン)で個人情報を取られました。

2021.09.24

Logging

今日は晴天です、お外は暑いですが部屋の中は丁度よい温度ですね。

さて、いきなりですがLinkedIn(リンクトイン)であるアカウントに個人情報を取られました。 LinkedInというのはビジネスに特化したSNSです。ビジネス版のフェイスブックだと考えて頂けたら良いかと思います。そのLinkedInにスクウェア・エニックスの人事を名乗る人から面談のお誘いがあり、本日、電話面談を行う予定でしたが時間になっても電話ならず今に至ります。

Join the #ConversationsForChange on LinkedIn

自分の名前と個人情報である電話番号が抜き取られましたが自分はあまり痛くありません、情報漏れしたのは050の電話番号だからです。こちらは元々、派遣や仕事用に構えた電話番号ですので漏れても問題ないのです。

本名はフェイスブックを見れば分かる状態になっているので、元々漏れている状態になっている。自分としては問題ないのです。

ただ、詐欺的な手法で個人情報を取られたのはちょっと自分が甘かったなと思いました。まずスクウェア・エニックスの人事担当なのに自分の顔写真のアイコンもない時点で変だなと疑うべきでしたし、人事やリクルート関係のLinkedInアカウントは日中はオンラインになっています。また求人情報も自サイトで紹介せず求人情報を掲載できるサービスで提供していたりなど不可解な点がありました。そしてスクウェア・エニックスの方だったら電話面談じゃなくzoom面談だろうなと思います。

自分のようにもしかしたら、騙される人も中にはいるかと思いますので、今回、注意喚起としてブログに掲載いたしました。皆さんも騙されないように気おつけてくださいね?

最後にLinkedIn(リンクトイン)は良いサービスですが、上記のような事もあるので注意してくださいな?

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

050, LinkedIn, SNS, アカウント, エニックス, お誘い, こちら, スクウェア, ビジネス, フェイスブック, リンクトイン, , 予定, , 人事, 今日, 仕事, 個人, 名前, , 情報, 情報漏れ, 手法, 時間, 晴天, 本名, 本日, 派遣, 温度, 特化, 状態, 番号, 自分, 部屋, 電話, 面談,

弱者を煽り稼ぐ人。

2020.08.11

Logging

弱肉を煽り稼ぐ人がよく使う言葉は『馬鹿』です。例えばイケハヤさんやホリエモンさん、ひろゆきさんなどがあげられます。彼らは手法は違えども弱者に対してものを売っています。

ダイエットでこの商品を買えば痩せるとテレビショッピングでついつい購入して購入する人たちと『馬鹿』にはなりたくない『弱者』にはなりたくないと動画や本を購入したりオンラインサロンにまで手を出す人たちは、同じ思考だと思います。それでお金持ちになれますか?それでダイエット出来ましたか?

おそらく大半の人はお金持ちになれず、ダイエットには成功していないはずです。彼らは言うでしょう、途中で辞めたからお金持ちになれなかった、ダイエットに成功しなかったと。

さて、そもそも論で言いますが、情報弱者は摂取されて終わりです。目を覚ましましょう、お金持ちになりたければお金を使わずにそのお金を海外の分散投資にお金を回し運営することです。金融庁が行っている運用資産での利回り計算のシュミレーションがでています。毎月どれぐらい溜めていけばどのぐらいのお金が貯まり利息がどれぐらいか分かります。

逆算してお金を貯めれば、老後の心配もいらず、若ければセミリタイアも出来る可能性があります。

https://www.fsa.go.jp/policy/nisa2/moneyplan_sim/index.html

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

イケハヤ, いま, オンライン, お金, お金持ち, こと, サロン, シュミレーション, ショッピング, ダイエット, テレビ, パス, ひろゆき, ホリエモン, もの, , 分散, 利回り, 動画, 商品, 大半, 弱者, 彼ら, 思考, 情報, 成功, , 手法, 投資, 摂取, , 海外, , , 言葉, 計算, , 資産, 購入, 途中, 運営, 運用, 金融庁, 馬鹿,

人工知能APIが徐々に浸透していく。

2017.06.20

Logging


人工知能APIが徐々に浸透していく。
グーグルが人工知能APIに本腰を入れる、おそらく簡単に使用できる
ものは、今のところ有料だと思います、ただ今後、人工知能が浸透していくに
つれて、今まで有料だったAPIも無料で提供されるように
なるだろうと思います。
この頃、AIと言われているものは、三つ層に
分けることが出来るのだとか、人工知能、深層学習、ディープラーニングと
いう感じです、また、それぞれの学習方法もいろいろな手法が
あると言うことをわかりやすく解説している記事がありました。
記事を読みたい人はこちらを参照:GO
ちなみに人工知能の解説本やネットの記事を読むことで
なんとか、サンプルを動かすことは出来たのですけど・・・。
それ以降、学習していないですね、人工知能に学習させるまえに
自分をディープラーニングしたいこの頃です。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

グーグル, サンプル, それぞれ, ディープラーニング, ところ有料, ネット, フリーライブラリ, まえ, 三つ層, 人工知能API, 参照, 学習方法, 手法, 本腰, 機械学習入門, 深層学習, 解説本,

釣り釣果MAPと高知県フォトサークル告知板は同じ末路かな?

2017.01.09

Logging


釣り釣果MAPと高知県フォトサークル告知板は同じ末路かなと思っています。
活動すればどちらもアクセス数が徐々に増えそうだけど
このまま、放置したままだと使われないサイトだと思うので
一番、アクセス数の多いココで宣伝告知しています。
ココで宣伝告知したところで、そのサイトまで行き
投稿してくださる方もいそうにないので、名前だけで
リンクは貼らず敢えてリンクしない手法で
宣伝告知をさせてもらいます。
本当に使いたい方だけで盛り上がるサイトを
作りたいという趣旨でどちらも作りました。
ちなみに自分は昔は釣りなどをしていたのですが
今は全くしなくなりました。
一昔前ならどちらのサイトもそれなり
書き込みは在るじゃないかなと思うですけど
いま、こういうサイトはウケないですね。
Twitterやフェイスブックで自ら発信することが出来るので
わざわざ、こういうサイトを使用して発信する必要が無いのが
現状です。何か付加価値がない限り、今のままだと自己満足止まりかと
自分は思っています。
追記:
その何か付加価値のアイデアが出ないです・・_(:3」∠)_

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Twitter, アイデア, ココ, フェイスブック, 一昔前, 付加価値, 名前, 多いココ, 宣伝, 宣伝告知, 手法, , 末路, 現状, 自ら, 自己満足止まり, 趣旨, 追記, 釣果MAP, 高知県フォトサークル告知板,